Compare View

switch
from
...
to
 
Commits (4)

Diff

Showing 29 changed files Inline Diff

No preview for this file type

Figures/EIAH.drawio View file @ 4b1afa3
<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.5"> 1 1 <mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.6">
<diagram name="Page-1" id="OSgn3XfzTL5SABNI0Qxs"> 2 2 <diagram name="Page-1" id="OSgn3XfzTL5SABNI0Qxs">
<mxGraphModel dx="786" dy="435" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> 3 3 <mxGraphModel dx="786" dy="435" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0">
<root> 4 4 <root>
<mxCell id="0" /> 5 5 <mxCell id="0" />
<mxCell id="1" parent="0" /> 6 6 <mxCell id="1" parent="0" />
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-16" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1"> 7 7 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-16" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1">
<mxGeometry x="40" y="40" width="640" height="360" as="geometry" /> 8 8 <mxGeometry x="40" y="40" width="640" height="360" as="geometry" />
</mxCell> 9 9 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-26" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-17" target="HP-W8r5hdSGzMFOFOmfQ-24" edge="1"> 10 10 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-26" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-17" target="HP-W8r5hdSGzMFOFOmfQ-24" edge="1">
<mxGeometry relative="1" as="geometry"> 11 11 <mxGeometry relative="1" as="geometry">
<Array as="points"> 12 12 <Array as="points">
<mxPoint x="180" y="280" /> 13 13 <mxPoint x="180" y="280" />
<mxPoint x="180" y="280" /> 14 14 <mxPoint x="180" y="280" />
</Array> 15 15 </Array>
</mxGeometry> 16 16 </mxGeometry>
</mxCell> 17 17 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-17" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1"> 18 18 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-17" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1">
<mxGeometry x="60" y="60" width="600" height="200" as="geometry" /> 19 19 <mxGeometry x="60" y="60" width="600" height="200" as="geometry" />
</mxCell> 20 20 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-21" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-19" edge="1"> 21 21 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-21" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-19" edge="1">
<mxGeometry relative="1" as="geometry" /> 22 22 <mxGeometry relative="1" as="geometry" />
</mxCell> 23 23 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-22" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> 24 24 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-22" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1">
<mxGeometry relative="1" as="geometry" /> 25 25 <mxGeometry relative="1" as="geometry" />
</mxCell> 26 26 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-18" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Modèle du domain&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> 27 27 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-18" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Modèle du domaine&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1">
<mxGeometry x="300" y="80" width="120" height="60" as="geometry" /> 28 28 <mxGeometry x="300" y="80" width="120" height="60" as="geometry" />
</mxCell> 29 29 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-23" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-19" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> 30 30 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-23" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-19" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1">
<mxGeometry relative="1" as="geometry" /> 31 31 <mxGeometry relative="1" as="geometry" />
</mxCell> 32 32 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-19" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Modèle du tutorat&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> 33 33 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-19" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Modèle du tutorat&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1">
<mxGeometry x="120" y="160" width="120" height="60" as="geometry" /> 34 34 <mxGeometry x="120" y="160" width="120" height="60" as="geometry" />
</mxCell> 35 35 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-20" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Modèle de l&#39;apprenant&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> 36 36 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-20" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Modèle de l&#39;apprenant&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1">
<mxGeometry x="480" y="160" width="120" height="60" as="geometry" /> 37 37 <mxGeometry x="480" y="160" width="120" height="60" as="geometry" />
</mxCell> 38 38 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-28" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0;entryY=0.5;entryDx=0;entryDy=0;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-24" target="HP-W8r5hdSGzMFOFOmfQ-27" edge="1"> 39 39 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-28" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0;entryY=0.5;entryDx=0;entryDy=0;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-24" target="HP-W8r5hdSGzMFOFOmfQ-27" edge="1">
<mxGeometry relative="1" as="geometry" /> 40 40 <mxGeometry relative="1" as="geometry" />
</mxCell> 41 41 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-24" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Interface&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> 42 42 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-24" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Interface&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1">
<mxGeometry x="120" y="300" width="120" height="60" as="geometry" /> 43 43 <mxGeometry x="120" y="300" width="120" height="60" as="geometry" />
</mxCell> 44 44 </mxCell>
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-27" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Utilisateur - Apprenant&lt;/font&gt;&lt;/b&gt;" style="ellipse;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> 45 45 <mxCell id="HP-W8r5hdSGzMFOFOmfQ-27" value="&lt;b&gt;&lt;font style=&quot;font-size: 15px;&quot;&gt;Utilisateur - Apprenant&lt;/font&gt;&lt;/b&gt;" style="ellipse;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1">
<mxGeometry x="480" y="290" width="120" height="80" as="geometry" /> 46 46 <mxGeometry x="480" y="290" width="120" height="80" as="geometry" />
</mxCell> 47 47 </mxCell>
</root> 48 48 </root>
</mxGraphModel> 49 49 </mxGraphModel>
</diagram> 50 50 </diagram>
</mxfile> 51 51 </mxfile>
52 52
Figures/EIAH.png View file @ 4b1afa3

34.9 KB | W: | H:

35.1 KB | W: | H:

  • 2-up
  • Swipe
  • Onion skin
Figures/ELearningLevels.png View file @ 4b1afa3

480 KB | W: | H:

468 KB | W: | H:

  • 2-up
  • Swipe
  • Onion skin
Figures/taxonomieEIAH.drawio View file @ 4b1afa3
<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:136.0) Gecko/20100101 Firefox/136.0" version="26.1.3"> 1 1 <mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.6">
<diagram name="Page-1" id="w2hWb6gX0Axkn_KR6Cac"> 2 2 <diagram name="Page-1" id="w2hWb6gX0Axkn_KR6Cac">
<mxGraphModel dx="794" dy="382" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> 3 3 <mxGraphModel dx="786" dy="435" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0">
<root> 4 4 <root>
<mxCell id="0" /> 5 5 <mxCell id="0" />
<mxCell id="1" parent="0" /> 6 6 <mxCell id="1" parent="0" />
<mxCell id="4dwB7kk_Vurboq88jpxZ-7" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-2" edge="1"> 7 7 <mxCell id="4dwB7kk_Vurboq88jpxZ-7" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-2" edge="1">
<mxGeometry relative="1" as="geometry" /> 8 8 <mxGeometry relative="1" as="geometry" />
</mxCell> 9 9 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-8" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-3" edge="1"> 10 10 <mxCell id="4dwB7kk_Vurboq88jpxZ-8" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-3" edge="1">
<mxGeometry relative="1" as="geometry" /> 11 11 <mxGeometry relative="1" as="geometry" />
</mxCell> 12 12 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-9" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-4" edge="1"> 13 13 <mxCell id="4dwB7kk_Vurboq88jpxZ-9" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-4" edge="1">
<mxGeometry relative="1" as="geometry" /> 14 14 <mxGeometry relative="1" as="geometry" />
</mxCell> 15 15 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-10" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-5" edge="1"> 16 16 <mxCell id="4dwB7kk_Vurboq88jpxZ-10" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-5" edge="1">
<mxGeometry relative="1" as="geometry" /> 17 17 <mxGeometry relative="1" as="geometry" />
</mxCell> 18 18 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-11" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-6" edge="1"> 19 19 <mxCell id="4dwB7kk_Vurboq88jpxZ-11" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-6" edge="1">
<mxGeometry relative="1" as="geometry" /> 20 20 <mxGeometry relative="1" as="geometry" />
</mxCell> 21 21 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-1" value="&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Systèmes de &lt;br&gt;&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Recommandation (SR)&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 22 22 <mxCell id="4dwB7kk_Vurboq88jpxZ-1" value="&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Systèmes de &lt;br&gt;&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Recommandation (SR)&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="400" y="30" width="180" height="70" as="geometry" /> 23 23 <mxGeometry x="400" y="30" width="180" height="70" as="geometry" />
</mxCell> 24 24 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-2" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Filtre demographique (DF)&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 25 25 <mxCell id="4dwB7kk_Vurboq88jpxZ-2" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Filtre demographique (DF)&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="50" y="150" width="170" height="70" as="geometry" /> 26 26 <mxGeometry x="50" y="150" width="170" height="70" as="geometry" />
</mxCell> 27 27 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-13" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-12" edge="1"> 28 28 <mxCell id="4dwB7kk_Vurboq88jpxZ-13" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-12" edge="1">
<mxGeometry relative="1" as="geometry" /> 29 29 <mxGeometry relative="1" as="geometry" />
</mxCell> 30 30 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-15" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-14" edge="1"> 31 31 <mxCell id="4dwB7kk_Vurboq88jpxZ-15" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-14" edge="1">
<mxGeometry relative="1" as="geometry" /> 32 32 <mxGeometry relative="1" as="geometry" />
</mxCell> 33 33 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-17" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-16" edge="1"> 34 34 <mxCell id="4dwB7kk_Vurboq88jpxZ-17" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-16" edge="1">
<mxGeometry relative="1" as="geometry" /> 35 35 <mxGeometry relative="1" as="geometry" />
</mxCell> 36 36 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-3" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Basé de connaissances (KB)&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 37 37 <mxCell id="4dwB7kk_Vurboq88jpxZ-3" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Fondé sur les connaissances (KB)&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="253.5" y="150" width="160" height="70" as="geometry" /> 38 38 <mxGeometry x="253.5" y="150" width="160" height="70" as="geometry" />
</mxCell> 39 39 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-4" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Basé sur le contenu (CB)&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 40 40 <mxCell id="4dwB7kk_Vurboq88jpxZ-4" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Fondé sur le contenu (CB)&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="447" y="150" width="120" height="70" as="geometry" /> 41 41 <mxGeometry x="447" y="150" width="120" height="70" as="geometry" />
</mxCell> 42 42 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-20" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-5" target="4dwB7kk_Vurboq88jpxZ-18" edge="1"> 43 43 <mxCell id="4dwB7kk_Vurboq88jpxZ-20" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-5" target="4dwB7kk_Vurboq88jpxZ-18" edge="1">
<mxGeometry relative="1" as="geometry" /> 44 44 <mxGeometry relative="1" as="geometry" />
</mxCell> 45 45 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-21" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-5" target="4dwB7kk_Vurboq88jpxZ-19" edge="1"> 46 46 <mxCell id="4dwB7kk_Vurboq88jpxZ-21" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-5" target="4dwB7kk_Vurboq88jpxZ-19" edge="1">
<mxGeometry relative="1" as="geometry" /> 47 47 <mxGeometry relative="1" as="geometry" />
</mxCell> 48 48 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-5" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Filtre collaboratif (CF)&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 49 49 <mxCell id="4dwB7kk_Vurboq88jpxZ-5" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Filtre collaboratif (CF)&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="600" y="150" width="120" height="70" as="geometry" /> 50 50 <mxGeometry x="600" y="150" width="120" height="70" as="geometry" />
</mxCell> 51 51 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-29" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-6" target="4dwB7kk_Vurboq88jpxZ-28" edge="1"> 52 52 <mxCell id="4dwB7kk_Vurboq88jpxZ-29" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-6" target="4dwB7kk_Vurboq88jpxZ-28" edge="1">
<mxGeometry relative="1" as="geometry" /> 53 53 <mxGeometry relative="1" as="geometry" />
</mxCell> 54 54 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-6" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Hybride&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 55 55 <mxCell id="4dwB7kk_Vurboq88jpxZ-6" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Hybride&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="750" y="150" width="120" height="70" as="geometry" /> 56 56 <mxGeometry x="750" y="150" width="120" height="70" as="geometry" />
</mxCell> 57 57 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-12" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Basé sur les contraintes&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 58 58 <mxCell id="4dwB7kk_Vurboq88jpxZ-12" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Fondé sur les contraintes&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="120" y="300" width="120" height="70" as="geometry" /> 59 59 <mxGeometry x="120" y="300" width="120" height="70" as="geometry" />
</mxCell> 60 60 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-14" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Basé sur les cas&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 61 61 <mxCell id="4dwB7kk_Vurboq88jpxZ-14" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Fondé sur les cas&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="273.5" y="300" width="120" height="70" as="geometry" /> 62 62 <mxGeometry x="273.5" y="300" width="120" height="70" as="geometry" />
</mxCell> 63 63 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-16" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Basé sur l&#39;ontologie&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 64 64 <mxCell id="4dwB7kk_Vurboq88jpxZ-16" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Fondé sur l&#39;ontologie&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="430" y="300" width="120" height="70" as="geometry" /> 65 65 <mxGeometry x="430" y="300" width="120" height="70" as="geometry" />
</mxCell> 66 66 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-23" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-22" edge="1"> 67 67 <mxCell id="4dwB7kk_Vurboq88jpxZ-23" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-22" edge="1">
<mxGeometry relative="1" as="geometry" /> 68 68 <mxGeometry relative="1" as="geometry" />
</mxCell> 69 69 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-25" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-24" edge="1"> 70 70 <mxCell id="4dwB7kk_Vurboq88jpxZ-25" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-24" edge="1">
<mxGeometry relative="1" as="geometry" /> 71 71 <mxGeometry relative="1" as="geometry" />
</mxCell> 72 72 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-18" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Basé sur la mémoire&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 73 73 <mxCell id="4dwB7kk_Vurboq88jpxZ-18" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Fondé sur la mémoire&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="600" y="300" width="120" height="70" as="geometry" /> 74 74 <mxGeometry x="600" y="300" width="120" height="70" as="geometry" />
</mxCell> 75 75 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-27" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-19" target="4dwB7kk_Vurboq88jpxZ-26" edge="1"> 76 76 <mxCell id="4dwB7kk_Vurboq88jpxZ-27" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-19" target="4dwB7kk_Vurboq88jpxZ-26" edge="1">
<mxGeometry relative="1" as="geometry" /> 77 77 <mxGeometry relative="1" as="geometry" />
</mxCell> 78 78 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-19" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Basé sur le modèle&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 79 79 <mxCell id="4dwB7kk_Vurboq88jpxZ-19" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Fondé sur le modèle&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="740" y="300" width="120" height="70" as="geometry" /> 80 80 <mxGeometry x="740" y="300" width="120" height="70" as="geometry" />
</mxCell> 81 81 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-22" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Basé sur l&#39;utilisateur&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 82 82 <mxCell id="4dwB7kk_Vurboq88jpxZ-22" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Fondé sur l&#39;utilisateur&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="530" y="440" width="120" height="70" as="geometry" /> 83 83 <mxGeometry x="530" y="440" width="120" height="70" as="geometry" />
</mxCell> 84 84 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-24" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Basé sur les éléments&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 85 85 <mxCell id="4dwB7kk_Vurboq88jpxZ-24" value="&lt;b&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;Fondé sur les éléments&lt;/font&gt;&lt;/b&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="680" y="440" width="120" height="70" as="geometry" /> 86 86 <mxGeometry x="680" y="440" width="120" height="70" as="geometry" />
</mxCell> 87 87 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-26" value="&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Clustering&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Classification&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Factorisation Matricielle&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Réseau Bayésien&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Régression&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Basé sur les règles&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 88 88 <mxCell id="4dwB7kk_Vurboq88jpxZ-26" value="&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Clustering&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Classification&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Factorisation Matricielle&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Réseau Bayésien&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Régression&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;Fondé sur les règles&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="830" y="420" width="200" height="220" as="geometry" /> 89 89 <mxGeometry x="830" y="420" width="200" height="220" as="geometry" />
</mxCell> 90 90 </mxCell>
<mxCell id="4dwB7kk_Vurboq88jpxZ-28" value="&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;CF + CB&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;KB + CF&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;KB + CF + DF&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> 91 91 <mxCell id="4dwB7kk_Vurboq88jpxZ-28" value="&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;CF + CB&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;KB + CF&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;&lt;div&gt;&lt;font style=&quot;font-size: 20px;&quot;&gt;&lt;b&gt;KB + CF + DF&lt;/b&gt;&lt;/font&gt;&lt;/div&gt;" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1">
<mxGeometry x="890" y="260" width="140" height="110" as="geometry" /> 92 92 <mxGeometry x="890" y="260" width="140" height="110" as="geometry" />
</mxCell> 93 93 </mxCell>
</root> 94 94 </root>
</mxGraphModel> 95 95 </mxGraphModel>
</diagram> 96 96 </diagram>
</mxfile> 97 97 </mxfile>
98 98
Figures/taxonomieEIAH.png View file @ 4b1afa3

108 KB | W: | H:

110 KB | W: | H:

  • 2-up
  • Swipe
  • Onion skin
chapters/Architecture.aux View file @ 4b1afa3
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{10.1007/978-3-031-63646-2_13} 3 3 \citation{10.1007/978-3-031-63646-2_13}
\citation{Auer} 4 4 \citation{Auer}
\citation{jmse10040464} 5 5 \citation{jmse10040464}
\@writefile{toc}{\contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 7 7 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 8 8 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}\protected@file@percent } 9 9 \@writefile{toc}{\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}\protected@file@percent }
\citation{Daubias2011} 10 10 \citation{Daubias2011}
\citation{10.1007/978-3-030-01081-2_9} 11 11 \citation{10.1007/978-3-030-01081-2_9}
\@writefile{toc}{\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}\protected@file@percent } 12 12 \@writefile{toc}{\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}\protected@file@percent }
13 \newlabel{sec:descAIVT}{{5.2}{42}{Description du système AI-VT}{section.5.2}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {5.1}{\ignorespaces Structure du système AI-VT\relax }}{42}{figure.caption.17}\protected@file@percent } 13 14 \@writefile{lof}{\contentsline {figure}{\numberline {5.1}{\ignorespaces Structure du système AI-VT\relax }}{42}{figure.caption.17}\protected@file@percent }
\newlabel{fig:figSys1}{{5.1}{42}{Structure du système AI-VT\relax }{figure.caption.17}{}} 14 15 \newlabel{fig:figSys1}{{5.1}{42}{Structure du système AI-VT\relax }{figure.caption.17}{}}
\@writefile{lot}{\contentsline {table}{\numberline {5.1}{\ignorespaces Un tableau décrivant les caractéristiques du système AI-VT\relax }}{43}{table.caption.18}\protected@file@percent } 15 16 \@writefile{lot}{\contentsline {table}{\numberline {5.1}{\ignorespaces Un tableau décrivant les caractéristiques du système AI-VT\relax }}{43}{table.caption.18}\protected@file@percent }
\newlabel{tabDesc}{{5.1}{43}{Un tableau décrivant les caractéristiques du système AI-VT\relax }{table.caption.18}{}} 16 17 \newlabel{tabDesc}{{5.1}{43}{Un tableau décrivant les caractéristiques du système AI-VT\relax }{table.caption.18}{}}
\@writefile{toc}{\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}\protected@file@percent } 17 18 \@writefile{toc}{\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {5.2}{\ignorespaces Schème de l'architecture proposée\relax }}{45}{figure.caption.19}\protected@file@percent } 18 19 \@writefile{lof}{\contentsline {figure}{\numberline {5.2}{\ignorespaces Schème de l'architecture proposée\relax }}{45}{figure.caption.19}\protected@file@percent }
\newlabel{fig:sa1}{{5.2}{45}{Schème de l'architecture proposée\relax }{figure.caption.19}{}} 19 20 \newlabel{fig:sa1}{{5.2}{45}{Schème de l'architecture proposée\relax }{figure.caption.19}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}\protected@file@percent } 20 21 \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}\protected@file@percent } 21 22 \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}\protected@file@percent } 22 23 \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}\protected@file@percent } 23 24 \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {5.3}{\ignorespaces Relation entre les couches définies de l'architecture.\relax }}{49}{figure.caption.20}\protected@file@percent } 24 25 \@writefile{lof}{\contentsline {figure}{\numberline {5.3}{\ignorespaces Relation entre les couches définies de l'architecture.\relax }}{49}{figure.caption.20}\protected@file@percent }
\newlabel{fig:figLayers}{{5.3}{49}{Relation entre les couches définies de l'architecture.\relax }{figure.caption.20}{}} 25 26 \newlabel{fig:figLayers}{{5.3}{49}{Relation entre les couches définies de l'architecture.\relax }{figure.caption.20}{}}
\@writefile{toc}{\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}\protected@file@percent } 26 27 \@writefile{toc}{\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {5.4}{\ignorespaces Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }}{50}{figure.caption.21}\protected@file@percent } 27 28 \@writefile{lof}{\contentsline {figure}{\numberline {5.4}{\ignorespaces Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }}{50}{figure.caption.21}\protected@file@percent }
\newlabel{fig:figFlow}{{5.4}{50}{Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }{figure.caption.21}{}} 28 29 \newlabel{fig:figFlow}{{5.4}{50}{Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }{figure.caption.21}{}}
\@setckpt{./chapters/Architecture}{ 29 30 \@setckpt{./chapters/Architecture}{
\setcounter{page}{51} 30 31 \setcounter{page}{51}
\setcounter{equation}{0} 31 32 \setcounter{equation}{0}
\setcounter{enumi}{0} 32 33 \setcounter{enumi}{0}
\setcounter{enumii}{0} 33 34 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 34 35 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 35 36 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 36 37 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 37 38 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 38 39 \setcounter{part}{3}
\setcounter{chapter}{5} 39 40 \setcounter{chapter}{5}
\setcounter{section}{4} 40 41 \setcounter{section}{4}
\setcounter{subsection}{0} 41 42 \setcounter{subsection}{0}
\setcounter{subsubsection}{0} 42 43 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 43 44 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 44 45 \setcounter{subparagraph}{0}
\setcounter{figure}{4} 45 46 \setcounter{figure}{4}
\setcounter{table}{1} 46 47 \setcounter{table}{1}
\setcounter{caption@flags}{2} 47 48 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 48 49 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 49 50 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 50 51 \setcounter{subtable}{0}
\setcounter{parentequation}{0} 51 52 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 52 53 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 53 54 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 54 55 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 55 56 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{1} 56 57 \setcounter{upm@format@section@sectionlevel}{1}
\setcounter{upm@fmt@savedcounter}{0} 57 58 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 58 59 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 59 60 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 60 61 \setcounter{upmdefinition}{0}
\setcounter{section@level}{1} 61 62 \setcounter{section@level}{1}
\setcounter{Item}{0} 62 63 \setcounter{Item}{0}
\setcounter{Hfootnote}{0} 63 64 \setcounter{Hfootnote}{0}
\setcounter{bookmark@seq@number}{47} 64 65 \setcounter{bookmark@seq@number}{47}
\setcounter{DefaultLines}{2} 65 66 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 66 67 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 67 68 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 68 69 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 69 70 \setcounter{float@type}{8}
\setcounter{algorithm}{0} 70 71 \setcounter{algorithm}{0}
\setcounter{ALG@line}{0} 71 72 \setcounter{ALG@line}{0}
\setcounter{ALG@rem}{0} 72 73 \setcounter{ALG@rem}{0}
\setcounter{ALG@nested}{0} 73 74 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 74 75 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 75 76 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 76 77 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 77 78 \setcounter{ALG@tmpcounter}{0}
} 78 79 }
chapters/Architecture.tex View file @ 4b1afa3
\chapter{Architecture Globale du Système AI-VT} 1 1 \chapter{Architecture Globale du Système AI-VT}
2 2
\section{Introduction} 3 3 \section{Introduction}
4 4
Il est important de définir et décrire l'architecture logicielle d'un système complexe afin de mieux comprendre son fonctionnement. L'architecture montre les composants, les couches, les fonctionnalités et les interactions. Ce chapitre présente l'architecture modulaire proposée pour le système AI-VT. Les modules intègrent des outils issus de différents paradigmes, des modèles et des algorithmes d'intelligence artificielle permettant au système d'être plus performant. Les objectifs de l'architecture proposée sont de rendre le logiciel AI-VT (Artificial Intelligence Virtual Trainer) stable, évolutif, performant et facile à entretenir. L'architecture proposée se compose de quatre couches indépendantes, chacune dédiée à une fonctionnalité spécifique : correction automatique, identification, révision et test. Le contenu de ce chapitre a été publié dans \textit{et al.} \cite{10.1007/978-3-031-63646-2_13}. 5 5 Il est important de définir et décrire l'architecture logicielle d'un système complexe afin de mieux comprendre son fonctionnement. L'architecture montre les composants, les couches, les fonctionnalités et les interactions. Ce chapitre présente l'architecture modulaire proposée pour le système AI-VT. Les modules intègrent des outils issus de différents paradigmes, des modèles et des algorithmes d'intelligence artificielle permettant au système d'être plus performant. Les objectifs de l'architecture proposée sont de rendre le logiciel AI-VT (Artificial Intelligence - Virtual Trainer) stable, évolutif, performant et facile à entretenir. L'architecture proposée se compose de quatre couches indépendantes, chacune dédiée à une fonctionnalité spécifique : correction automatique, identification, révision et test. Le contenu de ce chapitre a été publié dans \textit{et al.} \cite{10.1007/978-3-031-63646-2_13}.
6 6
Il est possible de classer les architectures selon deux catégories : les architectures monolithiques et les architectures modulaires. Dans une architecture monolithique, le système logiciel est considéré comme une entité unique et unitaire avec une seule source de code, une seule base de données et un seul déploiement pour l'ensemble du système. Ce type de système est simple à développer et à tester mais il est peu adapté à la mise à jour et à l'évolution en raison de sa rigidité. Une architecture modulaire divise le système en modules indépendants qui peuvent communiquer entre eux, chaque module contenant alors tout ce qui est nécessaire pour fonctionner. De nombreux systèmes logiciels ont été conçus avec une architecture modulaire en raison des multiples avantages qu'elle présente \cite{Auer} \cite{jmse10040464}. 7 7 Il est possible de classer les architectures selon deux catégories : les architectures monolithiques et les architectures modulaires. Dans une architecture monolithique, le système logiciel est considéré comme une entité unique et unitaire avec une seule source de code, une seule base de données et un seul déploiement pour l'ensemble du système. Ce type de système est simple à développer et à tester mais il est peu adapté à la mise à jour et à l'évolution en raison de sa rigidité. Une architecture modulaire divise le système en modules indépendants qui peuvent communiquer entre eux, chaque module contenant alors tout ce qui est nécessaire pour fonctionner. De nombreux systèmes logiciels ont été conçus avec une architecture modulaire en raison des multiples avantages qu'elle présente \cite{Auer} \cite{jmse10040464}.
8 8
L'EIAH AI-VT a ainsi évolué vers une architecture modulaire que nous présentons dans ce chapitre. Après avoir rappelé le fonctionnement et les différents composants initiaux du système AI-VT, ce chapitre présente l'architecture modulaire implémentée lors de cette thèse et permettant à AI-VT d'intégrer de nouvelles fonctionnalités. La section 5.2 décrit le système AI-VT qui a été développé et qui existait avant le début de cette thèse. 9 9 L'EIAH AI-VT a ainsi évolué vers une architecture modulaire que nous présentons dans ce chapitre. Après avoir rappelé le fonctionnement et les différents composants initiaux du système AI-VT, ce chapitre présente l'architecture modulaire implémentée lors de cette thèse et permettant à AI-VT d'intégrer de nouvelles fonctionnalités. La section 5.2 décrit le système AI-VT qui a été développé et qui existait avant le début de cette thèse.
10 10
%\textcolor{red}{penser à bien expliciter ce qui existait avant, et ce que tu as développé et ce qui est en cours} 11 11 %\textcolor{red}{penser à bien expliciter ce qui existait avant, et ce que tu as développé et ce qui est en cours}
12 12
%---------------------------------------------------------------------------------------- 13 13 %----------------------------------------------------------------------------------------
% SECTION 2 14 14 % SECTION 2
%---------------------------------------------------------------------------------------- 15 15 %----------------------------------------------------------------------------------------
16 16
\section{Description du système AI-VT} 17 17 \section{Description du système AI-VT}\label{sec:descAIVT}
18 18
Pour rappel, le système AI-VT est un outil pédagogique générique qui vise à accompagner les apprenants dans leur apprentissage en leur proposant des fiches d'exercices appelées sessions. Durant chaque session, les capacités attendues sont divisées en compétences, elles-mêmes divisées en sous-compétences. L'apprenant choisit une compétence à travailler et le système génère une session composée d'exercices associés à plusieurs sous-compétences de la compétence choisie. Le système propose une liste d'exercices au début d'une session en utilisant le paradigme du raisonnement à partir de cas avec une base de données de questions. 19 19 Pour rappel, le système AI-VT est un outil pédagogique générique qui vise à accompagner les apprenants dans leur apprentissage en leur proposant des fiches d'exercices appelées sessions. Durant chaque session, les capacités attendues sont divisées en compétences, elles-mêmes divisées en sous-compétences. L'apprenant choisit une compétence à travailler et le système génère une session composée d'exercices associés à plusieurs sous-compétences de la compétence choisie. Le système propose une liste d'exercices au début d'une session en utilisant le paradigme du raisonnement à partir de cas avec une base de données de questions.
20 20
Le système AI-VT est un EIAH générique dont la structure globale est présentée sur la figure \figref{figSys1}. Il intègre une base de données de questions. Chacune des questions est associée à un contexte, au texte de la question considérée et à un niveau de complexité. Les questions sont liées à des sous-compétences, elles-mêmes liées à des compétences. Les principaux acteurs du système sont l'enseignant et l'apprenant. L'enseignant a la capacité de configurer l'ensemble du système, le nombre de compétences, les sous-compétences d'une compétence, le nombre de questions, la complexité de chacune d'entre elles, le niveau de complexité et le temps par session. L'apprenant quant à lui, peut commencer l'entraînement d'une compétence spécifique, accéder à des ressources de soutien complémentaires et répondre aux questions de test dans les sessions proposées par le système. Le tableau \ref{tabDesc} montre les caractéristiques du système AI-VT selon les 20 descripteurs permettant de caractériser le profil de l'apprenant décrits dans \cite{Daubias2011}. 21 21 Le système AI-VT est un EIAH générique dont la structure globale est présentée sur la figure \figref{figSys1}. Il intègre une base de données de questions. Chacune des questions est associée à un contexte, au texte de la question considérée et à un niveau de complexité. Les questions sont liées à des sous-compétences, elles-mêmes liées à des compétences. Les principaux acteurs du système sont l'enseignant et l'apprenant. L'enseignant a la capacité de configurer l'ensemble du système, le nombre de compétences, les sous-compétences d'une compétence, le nombre de questions, la complexité de chacune d'entre elles, le niveau de complexité et le temps par session. L'apprenant quant à lui, peut commencer l'entraînement d'une compétence spécifique, accéder à des ressources de soutien complémentaires et répondre aux questions de test dans les sessions proposées par le système. Le tableau \ref{tabDesc} montre les caractéristiques du système AI-VT selon les 20 descripteurs permettant de caractériser le profil de l'apprenant décrits dans \cite{Daubias2011}.
22 22
\mfigure[!ht]{width=\textwidth}{./Figures/AIVT.png}{Structure du système AI-VT}{figSys1} 23 23 \mfigure[!ht]{width=\textwidth}{./Figures/AIVT.png}{Structure du système AI-VT}{figSys1}
24 24
%\begin{figure}[!ht] 25 25 %\begin{figure}[!ht]
%\centering 26 26 %\centering
%\includegraphics[width=\textwidth]{./Figures/AIVT.png} 27 27 %\includegraphics[width=\textwidth]{./Figures/AIVT.png}
%\caption{Structure du système AI-VT} 28 28 %\caption{Structure du système AI-VT}
%\label{figSys1} 29 29 %\label{figSys1}
%\end{figure} 30 30 %\end{figure}
31 31
En s'appuyant sur la philosophie du RàPC, le système global AI-TV part du principe que la création d'une session pour un apprenant peut être réalisé par analogie avec celles proposées à des étudiants ayant des acquis, besoins et capacités similaires. AI-VT propose une liste d'exercices en fonction de la compétence ou de la sous-compétence sélectionnée par similitude avec celles proposées auparavant à d'autres apprenants. 32 32 En s'appuyant sur la philosophie du RàPC, le système global AI-TV part du principe que la création d'une session pour un apprenant peut être réalisé par analogie avec celles proposées à des apprenants ayant des acquis, besoins et capacités similaires. AI-VT propose une liste d'exercices en fonction de la compétence ou de la sous-compétence sélectionnée par similitude avec celles proposées auparavant à d'autres apprenants.
33 33
L'algorithme d'AI-VT tente de tenir compte de l'équilibre entre répétitivité et variété. De plus, le nombre d'exercices par session change en fonction du domaine, de la compétence choisie et du niveau de l'apprenant. La liste d'exercices est générée au début de chaque séance et elle n'est pas modifiée au cours de la séance en fonction des réponses fournies par l'apprenant : les listes d'exercices sont statiques pendant la séance \cite{10.1007/978-3-030-01081-2_9}. 34 34 L'algorithme d'AI-VT tente de tenir compte de l'équilibre entre répétitivité et variété. De plus, le nombre d'exercices par session change en fonction du domaine, de la compétence choisie et du niveau de l'apprenant. La liste d'exercices est générée au début de chaque séance et elle n'est pas modifiée au cours de la séance en fonction des réponses fournies par l'apprenant : les listes d'exercices sont statiques pendant la séance \cite{10.1007/978-3-030-01081-2_9}.
35 35
\begin{table}[!ht] 36 36 \begin{table}[!ht]
\centering 37 37 \centering
\begin{tabular}{p{1in}p{2.5in}p{1.5in}} 38 38 \begin{tabular}{p{1in}p{2.5in}p{1.5in}}
Type&Definition&Système AI-VT\\ 39 39 Type&Definition&Système AI-VT\\
\hline 40 40 \hline
Sujet&Acteur humain concerné par le profil&Apprentissage seul et en groupe\\ 41 41 Sujet&Acteur humain concerné par le profil&Apprentissage seul et en groupe\\
Collaboration&Le rôle de la collaboration dans les activités du profil&Individuel, Collaboratif\\ 42 42 Collaboration&Le rôle de la collaboration dans les activités du profil&Individuel, Collaboratif\\
Distance&Le rôle de la distance dans les activités du profil&Présentiel, Distanciel\\ 43 43 Distance&Le rôle de la distance dans les activités du profil&Présentiel, Distanciel\\
Discipline&Discipline des informations contenues dans le 44 44 Discipline&Discipline des informations contenues dans le
profil&Générique\\ 45 45 profil&Générique\\
Niveau&Le niveau scolaire de la matière concernée par le profil &Générique\\ 46 46 Niveau&Le niveau scolaire de la matière concernée par le profil &Générique\\
Initiateur&L'acteur humain à l'origine de la décision de créer le profil de création&Professeur, Administrateur\\ 47 47 Initiateur&L'acteur humain à l'origine de la décision de créer le profil de création&Professeur, Administrateur\\
Créateur&L'acteur humain ou logiciel qui compose le profil&Professeur, Administrateur\\ 48 48 Créateur&L'acteur humain ou logiciel qui compose le profil&Professeur, Administrateur\\
Destinataire&Acteur humain ou logiciel exploitant le profil&Apprenant\\ 49 49 Destinataire&Acteur humain ou logiciel exploitant le profil&Apprenant\\
Temps&Période du profil&Asynchrone\\ 50 50 Temps&Période du profil&Asynchrone\\
Évolution&L'évolutivité du profil &Profil évolutif\\ 51 51 Évolution&L'évolutivité du profil &Profil évolutif\\
Type&Le type d'informations contenues dans le profil &Profil de l'apprenant\\ 52 52 Type&Le type d'informations contenues dans le profil &Profil de l'apprenant\\
Nature&La nature des informations contenues dans le 53 53 Nature&La nature des informations contenues dans le
profil&Connaissances et compétences\\ 54 54 profil&Connaissances et compétences\\
Évaluation&La forme sous laquelle l'information est 55 55 Évaluation&La forme sous laquelle l'information est
évaluée&Rating, Taux de maîtrise\\ 56 56 évaluée&Rating, Taux de maîtrise\\
Représentation interne&Représentation interne utilisée par le système informatique pour manipuler les profils&Tables\\ 57 57 Représentation interne&Représentation interne utilisée par le système informatique pour manipuler les profils&Tables\\
Représentation externe&Représentation utilisée pour stocker le profil &Liste de valeurs\\ 58 58 Représentation externe&Représentation utilisée pour stocker le profil &Liste de valeurs\\
Visualisation&Représentation utilisée pour présenter le profil à ses destinataires&Représentation textuel et graphique standard\\ 59 59 Visualisation&Représentation utilisée pour présenter le profil à ses destinataires&Représentation textuel et graphique standard\\
Norme&Norme ou standard éducatif & - \\ 60 60 Norme&Norme ou standard éducatif & - \\
Format&Format de stockage du profil &Base de données relationnelle\\ 61 61 Format&Format de stockage du profil &Base de données relationnelle\\
Plate-forme&plate-forme informatique compatible&Web\\ 62 62 Plate-forme&plate-forme informatique compatible&Web\\
Dispositifs&le type de dispositif d'affichage du profil &Ordinateur ou appareils connectés\\ 63 63 Dispositifs&le type de dispositif d'affichage du profil &Ordinateur ou appareils connectés\\
\end{tabular} 64 64 \end{tabular}
\caption{Un tableau décrivant les caractéristiques du système AI-VT} 65 65 \caption{Un tableau décrivant les caractéristiques du système AI-VT}
\label{tabDesc} 66 66 \label{tabDesc}
\end{table} 67 67 \end{table}
68 68
\section{Modèle d'architecture proposé} 69 69 \section{Modèle d'architecture proposé}
70 70
Cette section explicite l'architecture proposée à partir du système AI-VT déjà existante. 71 71 Cette section explicite l'architecture proposée à partir du système AI-VT initial.
72 72
%\textcolor{red}{pour tous les modules dire précisément ce qui est développé ou en cours} 73 73 %\textcolor{red}{pour tous les modules dire précisément ce qui est développé ou en cours}
74 74
La nouvelle architecture proposée a pour objectif d'intégrer de nouvelles fonctionnalités complémentaires au système initial sans en modifier les fonctionnalités. L'idée consiste donc à pouvoir activer simplement le module correspondant en envoyant et en recevant les informations nécessaires à son fonctionnement. Une évolution vers une architecture plus modulaire permet ainsi d'ajouter de nouvelles fonctionnalités au système d'origine en intégrant de nouveaux modules ou en faisant évoluer les modules existants. La conception modulaire facilite également la maintenance du code, le développement et l'intégration de nouvelles extensions. De plus, le système peut être configuré et adapté module par module, réduisant ainsi les risques de pannes et les coûts de maintenance et d'évolution. La modularité permet également d'exécuter les algorithmes de chaque module de manière asynchrone, en parallèle ou en mode distribué si nécessaire.%\textcolor{red}{idem préciser ce qui était avant, le travail de floran et ton travail} 75 75 La nouvelle architecture proposée a pour objectif d'intégrer de nouvelles fonctionnalités complémentaires au système initial sans en modifier les fonctionnalités. L'idée consiste donc à pouvoir activer simplement le module correspondant en envoyant et en recevant les informations nécessaires à son fonctionnement. Une évolution vers une architecture plus modulaire permet ainsi d'ajouter de nouvelles fonctionnalités au système d'origine en intégrant de nouveaux modules ou en faisant évoluer les modules existants. La conception modulaire facilite également la maintenance du code, le développement et l'intégration de nouvelles extensions. De plus, le système peut être configuré et adapté module par module, réduisant ainsi les risques de pannes et les coûts de maintenance et d'évolution. La modularité permet également d'exécuter les algorithmes de chaque module de manière asynchrone, en parallèle ou en mode distribué si nécessaire.%\textcolor{red}{idem préciser ce qui était avant, le travail de floran et ton travail}
76 76
L'architecture se compose de deux éléments principaux représentés sur la figure \figref{sa1} : le système central AI-VT, tel qui décrit dans la section 5.2 et les modules fonctionnels proposées pour compléter et améliorer certaines fonctionnalités. Le système central gère l'ensemble du processus d'apprentissage ; il génère %\textcolor{red}{démarre?} 77 77 L'architecture se compose de deux éléments principaux représentés sur la figure \figref{sa1} : le système central AI-VT, tel qu'il est décrit dans la section \ref{sec:descAIVT}, et les modules fonctionnels proposées pour compléter et améliorer certaines fonctionnalités. Le système central gère l'ensemble du processus d'apprentissage ; il génère %\textcolor{red}{démarre?}
les séances ; il stocke les données relatives aux compétences, aux questions, aux ressources, aux apprenants, aux enseignants et aux réponses ; il contient les commandes et l'interface générale ; il gère le flux d'informations et active les modules nécessaires. Les modules sont un ensemble de fonctionnalités indépendantes mises en œuvre avec des algorithmes d'intelligence artificielle qui reçoivent et envoient des données depuis le composant central. Chaque module fonctionne selon des critères spécifiques liés à son propre objectif. Les modules sont regroupés en couches selon leur fonctionnalité : correction automatique, identification, adaptation, révision et test. L'enseignant et l'apprenant n'utilisent pas les modules directement ; ceux-ci sont appelés par le système pour compléter certaines fonctionnalités. 78 78 les séances ; il stocke les données relatives aux compétences, aux questions, aux ressources, aux apprenants, aux enseignants et aux réponses ; il contient les commandes et l'interface générale ; il gère le flux d'informations et active les modules nécessaires. Les modules sont un ensemble de fonctionnalités indépendantes mises en œuvre avec des algorithmes d'intelligence artificielle qui reçoivent et envoient des données depuis le composant central. Chaque module fonctionne selon des critères spécifiques liés à son propre objectif. Les modules sont regroupés en couches selon leur fonctionnalité : correction automatique, identification, adaptation, révision et test. L'enseignant et l'apprenant n'utilisent pas les modules directement ; ceux-ci sont appelés par le système pour compléter certaines fonctionnalités.
79 79
\mfigure[!ht]{width=\textwidth}{./Figures/Architecture AI-VT2.png}{Schème de l'architecture proposée}{sa1} 80 80 \mfigure[!ht]{width=\textwidth}{./Figures/Architecture AI-VT2.png}{Schème de l'architecture proposée}{sa1}
81 81
%\begin{figure}[!ht] 82 82 %\begin{figure}[!ht]
%\centering 83 83 %\centering
%\includegraphics[width=\textwidth]{./Figures/Architecture AI-VT2.png} 84 84 %\includegraphics[width=\textwidth]{./Figures/Architecture AI-VT2.png}
%\caption{Schème de l'architecture proposée} 85 85 %\caption{Schème de l'architecture proposée}
%\label{sa1} 86 86 %\label{sa1}
%\end{figure} 87 87 %\end{figure}
88 88
La couche de correction automatique (LC) contient les modules chargés de recevoir les réponses des apprenants et, conformément aux algorithmes et critères définis, d'établir une note cohérente avec une réponse de référence à une question spécifique. Dans cette couche, le module routeur (LC0) est chargé d'identifier le type de correction nécessaire et d'instancier le module approprié pour l'exécution de la tâche spécifique. 89 89 La couche de correction automatique (LC) contient les modules chargés de recevoir les réponses des apprenants et, conformément aux algorithmes et critères définis, d'établir une note cohérente avec une réponse de référence à une question spécifique. Dans cette couche, le module routeur (LC0) est chargé d'identifier le type de correction nécessaire et d'instancier le module approprié pour l'exécution de la tâche spécifique.
90 90
La couche d'identification (LD) contient les modules qui identifient les faiblesses ou les variables externes des apprenants lors de l'exécution des exercices proposés par le système ou après l'analyse des résultats. Ces modules aident à personnaliser le processus d'apprentissage en fonction de l'analyse des résultats obtenus par les apprenants. 91 91 La couche d'identification (LD) contient les modules qui identifient les faiblesses ou les variables externes des apprenants lors de l'exécution des exercices proposés par le système ou après l'analyse des résultats. Ces modules aident à personnaliser le processus d'apprentissage en fonction de l'analyse des résultats obtenus par les apprenants.
92 92
La couche de révision (LR) comprend les modules qui prennent les données des résultats obtenus dans la couche LC et les résultats de l'analyse de la couche LD pour modifier le parcours de l'apprenant en essayant de renforcer l'apprentissage dans les faiblesses détectées. Elle comprend également les modules qui obtiennent des informations de la part des apprenants et tentent de prédire leurs résultats en fonction des différentes compétences et des différents niveaux de complexité. 93 93 La couche de révision (LR) comprend les modules qui prennent les données des résultats obtenus dans la couche LC et les résultats de l'analyse de la couche LD pour modifier le parcours de l'apprenant en essayant de renforcer l'apprentissage dans les faiblesses détectées. Elle comprend également les modules qui obtiennent des informations de la part des apprenants et tentent de prédire leurs résultats en fonction des différentes compétences et des différents niveaux de complexité.
94 94
Pour évaluer les modules dans différents scénarios, il est nécessaire de produire des données selon différents critères et complexités. C'est la raison pour laquelle la couche de test (LT) a été définie. Les modules qui permettent de générer des données synthétiques selon des critères variables font partie de cette couche. Les modules de cette couche permettent d'obtenir des résultats numériques des modules, d'appliquer des métriques, et ainsi d'évaluer les modules selon différents critères et complexités. 95 95 Pour évaluer les modules dans différents scénarios, il est nécessaire de produire des données selon différents critères et complexités. C'est la raison pour laquelle la couche de test (LT) a été définie. Les modules qui permettent de générer des données synthétiques selon des critères variables font partie de cette couche. Les modules de cette couche permettent d'obtenir des résultats numériques des modules, d'appliquer des métriques, et ainsi d'évaluer les modules selon différents critères et complexités.
96 96
Le schéma complet de l'architecture est représenté sur la figure \figref{sa1}. Sur cette figure, les lignes pleines représentent un flux d'informations bidirectionnel, les lignes pleines terminées par une flèche représentent le flux unidirectionnel et les lignes en pointillé représentent la dépendance de l'information entre les modules. 97 97 Le schéma complet de l'architecture est représenté sur la figure \figref{sa1}. Sur cette figure, les lignes pleines représentent un flux d'informations bidirectionnel, les lignes pleines terminées par une flèche représentent le flux unidirectionnel et les lignes en pointillé représentent la dépendance de l'information entre les modules.
Les dispositifs externes qui peuvent être utilisés par les modules pour exécuter leurs fonctionnalités et les étiquettes indiquant le type d'information transmis au système central par le module sont également représentés. Certains des algorithmes d'intelligence artificielle mis en œuvre dans chaque module et le stade de développement dans lequel chacun d'eux se trouve y figurent également. Comme le montre cette figure, certains dispositifs ont besoin de données provenant de sources externes telles que le robot NAO, des capteurs, caméra vidéo ou microphone. 98 98 Les dispositifs externes qui peuvent être utilisés par les modules pour exécuter leurs fonctionnalités et les étiquettes indiquant le type d'information transmis au système central par le module sont également représentés. Certains des algorithmes d'intelligence artificielle mis en œuvre dans chaque module et le stade de développement dans lequel chacun d'eux se trouve y figurent également. Comme le montre cette figure, certains dispositifs ont besoin de données provenant de sources externes telles que le robot NAO, des capteurs, caméra vidéo ou microphone.
99 99
\subsection{Correction automatique} 100 100 \subsection{Correction automatique}
101 101
L'une des couches importantes et la couche de correction automatique. Dans cette couche, les modules ont la capacité de recevoir et d'évaluer différents types de réponses données par les apprenants en fonction du contexte et de la question que le système a proposée. Les modules représentés ont la capacité d'évaluer une réponse donnée par l'apprenant. Des études et certains programmes ont déjà été réalisés dans l'analyse de vidéo, de texte audio (langage naturel) et de code source (Java, Python). D'autres modules permettent également d'analyser des images, des expressions mathématiques, des valeurs générées par des capteurs physiques et des variables définies pour des activités sportives spécifiques. 102 102 L'une des couches importantes et la couche de correction automatique. Dans cette couche, les modules ont la capacité de recevoir et d'évaluer différents types de réponses données par les apprenants en fonction du contexte et de la question que le système a proposée. Les modules représentés ont la capacité d'évaluer une réponse donnée par l'apprenant. Des études et certains programmes ont déjà été réalisés dans l'analyse de vidéo, de texte audio (langage naturel) et de code source (Java, Python). D'autres modules permettent également d'analyser des images, des expressions mathématiques, des valeurs générées par des capteurs physiques et des variables définies pour des activités sportives spécifiques.
103 103
Le module routeur (LC0) a pour fonction d'identifier le type de réponse donnée par l'apprenant, c'est-à-dire reconnaître si la réponse donnée par l'apprenant est vidéo, audio, texte, image, etc. et de la rediriger vers le module d'analyse correspondant ; une fois que le module spécifique obtient les résultats de l'analyse de la réponse donnée, le routeur les redirige vers le système AI-VT principal. 104 104 Le module routeur (LC0) a pour fonction d'identifier le type de réponse donnée par l'apprenant, c'est-à-dire reconnaître si la réponse donnée par l'apprenant est vidéo, audio, texte, image, etc. et de la rediriger vers le module d'analyse correspondant ; une fois que le module spécifique obtient les résultats de l'analyse de la réponse donnée, le routeur les redirige vers le système AI-VT principal.
105 105
Le module vidéo (LC1) permet de capturer un flux d'images à partir d'un dispositif externe (caméra vidéo ou robot NAO) et de les analyser pour déterminer si une réponse donnée est correcte, actuellement le module est utilisé pour évaluer la réponse à la question : montrer \textit{n} nombre de doigts. L'algorithme implémenté détecte les doigts qui apparaissent sur la caméra, les compte et détermine s'il s'agit de la bonne réponse à la question donnée. 106 106 Le module vidéo (LC1) permet de capturer un flux d'images à partir d'un dispositif externe (caméra vidéo ou robot NAO) et de les analyser pour déterminer si une réponse donnée est correcte, actuellement le module est utilisé pour évaluer la réponse à la question : montrer \textit{n} nombre de doigts. L'algorithme implémenté détecte les doigts qui apparaissent sur la caméra, les compte et détermine s'il s'agit de la bonne réponse à la question donnée.
107 107
Le module audio (LC2) analyse une piste audio et convertit son contenu en texte. Une fois le texte généré, il peut être comparé à une réponse attendue à la question posée à l'aide de techniques NLP. Un score d'approximation estimé peut alors être calculé. Pour la comparaison, le module de texte (LC4) est utilisé , il permet d'établir le score de similarité entre le texte envoyé comme réponse de l'apprenant ou converti depuis une réponse audio et un texte de référence. 108 108 Le module audio (LC2) analyse une piste audio et convertit son contenu en texte. Une fois le texte généré, il peut être comparé à une réponse attendue à la question posée à l'aide de techniques NLP. Un score d'approximation estimé peut alors être calculé. Pour la comparaison, le module de texte (LC4) est utilisé , il permet d'établir le score de similarité entre le texte envoyé comme réponse de l'apprenant ou converti depuis une réponse audio et un texte de référence.
109 109
Le module d'analyse du code (LC3) génère un score après l'exécution de plusieurs étapes. En premier lieu, il détermine l'existence ou non de faiblesses dans certaines compétences prédéfinies. Il transforme ensuite la représentation du code en un vecteur numérique à comparer avec une réponse de référence : le résultat de la pondération entre les faiblesses détectées et le pourcentage de comparaison donne un score. 110 110 Le module d'analyse du code (LC3) génère un score après l'exécution de plusieurs étapes. En premier lieu, il détermine l'existence ou non de faiblesses dans certaines compétences prédéfinies. Il transforme ensuite la représentation du code en un vecteur numérique à comparer avec une réponse de référence : le résultat de la pondération entre les faiblesses détectées et le pourcentage de comparaison donne un score.
111 111
Le module d'analyse de texte (LC5) transforme le texte envoyé par l'apprenant en un vecteur numérique qui peut être comparé au vecteur numérique d'une réponse attendue. Dans ce cas, la réponse donnée ne doit pas nécessairement être exactement la même que la réponse attendue. La représentation vectorielle permet d'établir des similitudes dans l'espace, même si les termes utilisés et la longueur du texte diffèrent. 112 112 Le module d'analyse de texte (LC5) transforme le texte envoyé par l'apprenant en un vecteur numérique qui peut être comparé au vecteur numérique d'une réponse attendue. Dans ce cas, la réponse donnée ne doit pas nécessairement être exactement la même que la réponse attendue. La représentation vectorielle permet d'établir des similitudes dans l'espace, même si les termes utilisés et la longueur du texte diffèrent.
113 113
Les modules LC6, LC7, LC8 et LC9 sont capables d'analyser différents types de réponses potentielles qui peuvent éventuellement être gérées par le système AI-VT. 114 114 Les modules LC6, LC7, LC8 et LC9 sont capables d'analyser différents types de réponses potentielles qui peuvent éventuellement être gérées par le système AI-VT.
115 115
Les modules LC1, LC2, LC3 ont été partiellement développés et n'ont pas été suffisamment testés pour les intégrer dans le système de façon fonctionnelle, les autres modules pour le moment sont théoriques. 116 116 Les modules LC1, LC2, LC3 ont été partiellement développés et n'ont pas été suffisamment testés pour les intégrer dans le système de façon fonctionnelle, les autres modules pour le moment sont théoriques.
117 117
\subsection{Identification} 118 118 \subsection{Identification}
119 119
Les modules de la couche d'identification visent à extraire des informations complémentaires à la note de l'étudiant pour chacune des réponses envoyées au système et ainsi affiner encore plus les recommandations générées. Ces informations complémentaires permettent d'obtenir principalement des informations sur les émotions (bonheur, dégoût, surprise, colère, peur, neutre et triste) grâce à la détection des expressions faciales et aussi les lacunes de connaissance de l'apprenant %\textcolor{red}{expression et faiblesse de quoi, comment?} 120 120 Les modules de la couche d'identification visent à extraire des informations complémentaires à la note de l'apprenant pour chacune des réponses envoyées au système et ainsi affiner encore plus les recommandations générées. Ces informations complémentaires permettent d'obtenir principalement des informations sur les émotions (bonheur, dégoût, surprise, colère, peur, neutre et triste) grâce à la détection des expressions faciales et aussi les lacunes de connaissance de l'apprenant %\textcolor{red}{expression et faiblesse de quoi, comment?}
qui peuvent se manifester dans chaque sous-compétence et niveau de complexité. Ces modules d'AI-VT sont capables d'obtenir une meilleure estimation de l'état de l'apprentissage afin de mieux adapter le parcours de l'apprenant. 121 121 qui peuvent se manifester dans chaque sous-compétence et niveau de complexité. Ces modules d'AI-VT sont capables d'obtenir une meilleure estimation de l'état de l'apprentissage afin de mieux adapter le parcours de l'apprenant.
122 122
Les modules d'identification LD1, LD2 et LD4 tentent de détecter les comportements, les émotions et les sentiments à l'aide de dispositifs externes tels que la caméra vidéo et le microphone. Dans le cas de l'analyse vidéo, des réseaux neuronaux d'apprentissage profond sont utilisés pour capturer et analyser les images statiques obtenues à partir du flux de la caméra vidéo. Le modèle d'IA a été entraîné à détecter des émotions prédéfinies. Le module audio vise à détecter le même type d'émotions, mais à partir de l'analyse des signaux obtenus à partir d'un microphone. Il utilise également l'apprentissage profond entrainé avec des signaux qui présentent différentes émotions prédéfinies. Le module capteur est plus générique, mais il peut être subdivisé en modules spécifiques en fonction du type de capteur et du signal à analyser. Toutefois, l'idée de la détection est la même : détecter des émotions prédéfinies. 123 123 Les modules d'identification LD1, LD2 et LD4 tentent de détecter les comportements, les émotions et les sentiments à l'aide de dispositifs externes tels que la caméra vidéo et le microphone. Dans le cas de l'analyse vidéo, des réseaux neuronaux d'apprentissage profond sont utilisés pour capturer et analyser les images statiques obtenues à partir du flux de la caméra vidéo. Le modèle d'IA a été entraîné à détecter des émotions prédéfinies. Le module audio vise à détecter le même type d'émotions, mais à partir de l'analyse des signaux obtenus à partir d'un microphone. Il utilise également l'apprentissage profond entrainé avec des signaux qui présentent différentes émotions prédéfinies. Le module capteur est plus générique, mais il peut être subdivisé en modules spécifiques en fonction du type de capteur et du signal à analyser. Toutefois, l'idée de la détection est la même : détecter des émotions prédéfinies.
124 124
Le module Analyse des données (LD3) est différent car, en plus d'être générique, il tente d'identifier les faiblesses dans des compétences spécifiques en fonction du type d'évaluation. Ce module peut contenir différents modèles entraînés pour chaque type de cas. Pour les exercices linguistiques, les faiblesses identifiables peuvent être la conjugaison des verbes, l'utilisation des temps, le vocabulaire, la correspondance des genres de mots, etc. Si l'exercice est de type programmation le module est capable d'identifier des faiblesses liées à la syntaxe, la déclaration de variables, l'appel de fonctions, la construction de structures, etc. Ce module fonctionne sur la base d'implémentation de modèles d'apprentissage profond et de modèles collaboratifs tels que le raisonnement à partir de cas. 125 125 Le module Analyse des données (LD3) est différent car, en plus d'être générique, il tente d'identifier les faiblesses dans des compétences spécifiques en fonction du type d'évaluation. Ce module peut contenir différents modèles entraînés pour chaque type de cas. Pour les exercices linguistiques, les faiblesses identifiables peuvent être la conjugaison des verbes, l'utilisation des temps, le vocabulaire, la correspondance des genres de mots, etc. Si l'exercice est de type programmation le module est capable d'identifier des faiblesses liées à la syntaxe, la déclaration de variables, l'appel de fonctions, la construction de structures, etc. Ce module fonctionne sur la base d'implémentation de modèles d'apprentissage profond et de modèles collaboratifs tels que le raisonnement à partir de cas.
126 126
Les modules LD1 et LD3 ont été partiellement développés et n'ont pas été suffisamment testés pour les intégrer dans le système de façon fonctionnelle, les autres modules pour le moment sont théoriques. 127 127 Les modules LD1 et LD3 ont été partiellement développés et n'ont pas été suffisamment testés pour les intégrer dans le système de façon fonctionnelle, les autres modules pour le moment sont théoriques.
128 128
\subsection{Révision} 129 129 \subsection{Révision}
130 130
chapters/CBR.aux View file @ 4b1afa3
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{schank+abelson77} 3 3 \citation{schank+abelson77}
\citation{KOLODNER1983281} 4 4 \citation{KOLODNER1983281}
\citation{Riesbeck1989} 5 5 \citation{Riesbeck1989}
\citation{JUNG20095695} 6 6 \citation{RICHTER20093}
\citation{JUNG20095695} 7 7 \citation{JUNG20095695}
\@writefile{toc}{\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}\protected@file@percent } 8 8 \@writefile{toc}{\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 9 9 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 10 10 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}\protected@file@percent } 11 11 \@writefile{toc}{\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}\protected@file@percent }
\citation{10.1007/978-3-642-15973-2_50} 12 12 \citation{10.1007/978-3-642-15973-2_50}
\citation{PETROVIC201617} 13 13 \citation{PETROVIC201617}
\citation{10.1007/978-3-319-24586-7_20} 14 14 \citation{10.1007/978-3-319-24586-7_20}
\@writefile{toc}{\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}\protected@file@percent } 15
\citation{10.1007/978-3-030-58342-2_20} 16 15 \citation{10.1007/978-3-030-58342-2_20}
16 \@writefile{toc}{\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}\protected@file@percent }
\citation{wolf2024keep} 17 17 \citation{wolf2024keep}
\citation{PAREJASLLANOVARCED2024111469} 18 18 \citation{PAREJASLLANOVARCED2024111469}
\citation{Muller} 19 19 \citation{Muller}
\@writefile{toc}{\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}\protected@file@percent } 20
\citation{10.1007/978-3-319-47096-2_11} 21 20 \citation{10.1007/978-3-319-47096-2_11}
\citation{10.1007/978-3-642-15973-2_50} 22 21 \citation{10.1007/978-3-642-15973-2_50}
\citation{Robertson2014ARO} 23 22 \citation{Robertson2014ARO}
\citation{10.1007/978-3-319-47096-2_11} 24 23 \citation{10.1007/978-3-319-47096-2_11}
\citation{10.1007/978-3-319-47096-2_11} 25 24 \citation{10.1007/978-3-319-47096-2_11}
25 \@writefile{toc}{\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}\protected@file@percent }
\citation{ROLDANREYES20151} 26 26 \citation{ROLDANREYES20151}
\citation{ROLDANREYES20151} 27 27 \citation{ROLDANREYES20151}
\citation{ROLDANREYES20151} 28 28 \citation{ROLDANREYES20151}
\citation{10.1007/978-3-319-47096-2_11} 29 29 \citation{10.1007/978-3-319-47096-2_11}
30 \citation{10.1007/978-3-319-61030-6_1}
\@writefile{lof}{\contentsline {figure}{\numberline {4.1}{\ignorespaces Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }}{32}{figure.caption.13}\protected@file@percent } 30 31 \@writefile{lof}{\contentsline {figure}{\numberline {4.1}{\ignorespaces Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }}{32}{figure.caption.13}\protected@file@percent }
\newlabel{fig:figMCBR2}{{4.1}{32}{Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }{figure.caption.13}{}} 31 32 \newlabel{fig:figMCBR2}{{4.1}{32}{Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }{figure.caption.13}{}}
\citation{10.1007/978-3-319-61030-6_1} 32
\citation{buildings13030651} 33 33 \citation{buildings13030651}
34 \citation{YU2023110163}
\@writefile{lof}{\contentsline {figure}{\numberline {4.2}{\ignorespaces Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }}{33}{figure.caption.14}\protected@file@percent } 34 35 \@writefile{lof}{\contentsline {figure}{\numberline {4.2}{\ignorespaces Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }}{33}{figure.caption.14}\protected@file@percent }
\newlabel{fig:figMCBR1}{{4.2}{33}{Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }{figure.caption.14}{}} 35 36 \newlabel{fig:figMCBR1}{{4.2}{33}{Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }{figure.caption.14}{}}
\@writefile{toc}{\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}\protected@file@percent } 36 37 \@writefile{toc}{\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}\protected@file@percent }
\citation{YU2023110163} 37
\citation{10.1007/978-3-031-63646-2_4} 38 38 \citation{10.1007/978-3-031-63646-2_4}
\citation{10.1007/978-3-030-01081-2_25} 39 39 \citation{10.1007/978-3-030-01081-2_25}
\citation{10.1007/978-3-030-58342-2_8} 40 40 \citation{10.1007/978-3-030-58342-2_8}
\citation{10.1007/978-3-030-58342-2_5} 41 41 \citation{10.1007/978-3-030-58342-2_5}
\@writefile{toc}{\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}\protected@file@percent } 42
\citation{YU2024123745} 43 42 \citation{YU2024123745}
\citation{Sadeghi} 44 43 \citation{Sadeghi}
44 \@writefile{toc}{\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}\protected@file@percent }
\citation{8495930} 45 45 \citation{8495930}
\citation{Obeid} 46 46 \citation{Obeid}
\citation{skittou2024recommender} 47 47 \citation{skittou2024recommender}
\citation{Obeid} 48 48 \citation{Obeid}
\citation{Obeid} 49 49 \citation{Obeid}
\@writefile{toc}{\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}\protected@file@percent } 50
\citation{HU2025127130} 51 50 \citation{HU2025127130}
\citation{ALABDULRAHMAN2021114061} 52 51 \citation{ALABDULRAHMAN2021114061}
52 \@writefile{toc}{\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}\protected@file@percent }
53 \@writefile{toc}{\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}\protected@file@percent }
\citation{JUNG20095695} 53 54 \citation{JUNG20095695}
\citation{10.1007/978-3-642-15973-2_50} 54 55 \citation{10.1007/978-3-642-15973-2_50}
\citation{PETROVIC201617} 55 56 \citation{PETROVIC201617}
\citation{wolf2024keep} 56 57 \citation{wolf2024keep}
\citation{PAREJASLLANOVARCED2024111469} 57 58 \citation{PAREJASLLANOVARCED2024111469}
\citation{ROLDANREYES20151} 58 59 \citation{ROLDANREYES20151}
\citation{10.1007/978-3-319-47096-2_11} 59 60 \citation{10.1007/978-3-319-47096-2_11}
\citation{10.1007/978-3-319-61030-6_1} 60 61 \citation{10.1007/978-3-319-61030-6_1}
\citation{buildings13030651} 61 62 \citation{buildings13030651}
\citation{YU2023110163} 62 63 \citation{YU2023110163}
\citation{Muller} 63 64 \citation{Muller}
\citation{10.1007/978-3-319-24586-7_20} 64 65 \citation{10.1007/978-3-319-24586-7_20}
\citation{10.1007/978-3-030-58342-2_20} 65 66 \citation{10.1007/978-3-030-58342-2_20}
\citation{10.1007/978-3-031-63646-2_4} 66 67 \citation{10.1007/978-3-031-63646-2_4}
\citation{10.1007/978-3-030-01081-2_25} 67 68 \citation{10.1007/978-3-030-01081-2_25}
\citation{10.1007/978-3-030-58342-2_8} 68 69 \citation{10.1007/978-3-030-58342-2_8}
\citation{10.1007/978-3-030-58342-2_5} 69 70 \citation{10.1007/978-3-030-58342-2_5}
\citation{YU2024123745} 70 71 \citation{YU2024123745}
\citation{Sadeghi} 71 72 \citation{Sadeghi}
\citation{8495930} 72 73 \citation{8495930}
\citation{Obeid} 73 74 \citation{Obeid}
\citation{skittou2024recommender} 74 75 \citation{skittou2024recommender}
\@writefile{lof}{\contentsline {figure}{\numberline {4.3}{\ignorespaces Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }}{36}{figure.caption.15}\protected@file@percent } 75 76 \@writefile{lof}{\contentsline {figure}{\numberline {4.3}{\ignorespaces Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }}{36}{figure.caption.15}\protected@file@percent }
\newlabel{fig:figTax}{{4.3}{36}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }{figure.caption.15}{}} 76 77 \newlabel{fig:figTax}{{4.3}{36}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }{figure.caption.15}{}}
\@writefile{toc}{\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{36}{section.4.7}\protected@file@percent } 77
\@writefile{lot}{\contentsline {table}{\numberline {4.1}{\ignorespaces Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }}{37}{table.caption.16}\protected@file@percent } 78 78 \@writefile{lot}{\contentsline {table}{\numberline {4.1}{\ignorespaces Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }}{37}{table.caption.16}\protected@file@percent }
\newlabel{tabArts2}{{4.1}{37}{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }{table.caption.16}{}} 79 79 \newlabel{tabArts2}{{4.1}{37}{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }{table.caption.16}{}}
\@setckpt{./chapters/CBR}{ 80 80 \@setckpt{./chapters/CBR}{
\setcounter{page}{38} 81 81 \setcounter{page}{38}
\setcounter{equation}{0} 82 82 \setcounter{equation}{0}
\setcounter{enumi}{0} 83 83 \setcounter{enumi}{0}
\setcounter{enumii}{0} 84 84 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 85 85 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 86 86 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 87 87 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 88 88 \setcounter{mpfootnote}{0}
\setcounter{part}{2} 89 89 \setcounter{part}{2}
\setcounter{chapter}{4} 90 90 \setcounter{chapter}{4}
\setcounter{section}{7} 91 91 \setcounter{section}{7}
\setcounter{subsection}{0} 92 92 \setcounter{subsection}{0}
\setcounter{subsubsection}{0} 93 93 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 94 94 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 95 95 \setcounter{subparagraph}{0}
\setcounter{figure}{3} 96 96 \setcounter{figure}{3}
\setcounter{table}{1} 97 97 \setcounter{table}{1}
\setcounter{caption@flags}{2} 98 98 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 99 99 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 100 100 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 101 101 \setcounter{subtable}{0}
\setcounter{parentequation}{0} 102 102 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 103 103 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 104 104 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 105 105 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 106 106 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{1} 107 107 \setcounter{upm@format@section@sectionlevel}{1}
\setcounter{upm@fmt@savedcounter}{0} 108 108 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 109 109 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 110 110 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 111 111 \setcounter{upmdefinition}{0}
\setcounter{section@level}{1} 112 112 \setcounter{section@level}{1}
\setcounter{Item}{0} 113 113 \setcounter{Item}{0}
\setcounter{Hfootnote}{0} 114 114 \setcounter{Hfootnote}{0}
\setcounter{bookmark@seq@number}{37} 115 115 \setcounter{bookmark@seq@number}{37}
\setcounter{DefaultLines}{2} 116 116 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 117 117 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 118 118 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 119 119 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 120 120 \setcounter{float@type}{8}
\setcounter{algorithm}{0} 121 121 \setcounter{algorithm}{0}
\setcounter{ALG@line}{0} 122 122 \setcounter{ALG@line}{0}
\setcounter{ALG@rem}{0} 123 123 \setcounter{ALG@rem}{0}
\setcounter{ALG@nested}{0} 124 124 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 125 125 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 126 126 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 127 127 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 128 128 \setcounter{ALG@tmpcounter}{0}
} 129 129 }
130 130
chapters/CBR.tex View file @ 4b1afa3
\chapter{\'Etat de l'art (Raisonnement à Partir de Cas)} 1 1 \chapter{\'Etat de l'art (Raisonnement à Partir de Cas)}
2 2
Le raisonnement à partir de cas est une approche fondée sur la connaissance. Il s'agit d'une technique d'intelligence artificielle dont l'idée est de résoudre un nouveau problème grâce aux connaissances déjà acquises par le système et en tenant un raisonnement fondé sur l'analogie. Le RàPC est apparu comme une alternative pour améliorer les systèmes experts. Shank et Abelson \cite{schank+abelson77} ont initialement mené des travaux sur l'organisation hiérarchique de la mémoire pour imiter le raisonnement humain. Ceux-ci ont servi de fondement aux travaux de Janet Kolodner \cite{KOLODNER1983281} et ont abouti à l'implémentation d'un système fondé sur ces principes en 1983. Le terme \textit{raisonnement à partir de cas} est utilisé pour la première fois en 1989 par Riesbeck et Shank \cite{Riesbeck1989}. 3 3 Le raisonnement à partir de cas est une approche fondée sur la connaissance. Il s'agit d'une technique d'intelligence artificielle dont l'idée est de résoudre un nouveau problème grâce aux connaissances déjà acquises par le système et en tenant un raisonnement fondé sur l'analogie. Le RàPC est apparu comme une alternative pour améliorer les systèmes experts. Shank et Abelson \cite{schank+abelson77} ont initialement mené des travaux sur l'organisation hiérarchique de la mémoire pour imiter le raisonnement humain. Ceux-ci ont servi de fondement aux travaux de Janet Kolodner \cite{KOLODNER1983281} et ont abouti à l'implémentation d'un système fondé sur ces principes en 1983. Le terme \textit{raisonnement à partir de cas} est utilisé pour la première fois en 1989 par Riesbeck et Shank \cite{Riesbeck1989}.
4 4
Comme vu dans le chapitre "contexte", le raisonnement à partir de cas utilise quatre conteneurs de connaissance pour représenter la connaissance complète du système. Chaque conteneur stocke l'information associée à une fonction spécifique et tout est fondé sur le carré d'analogie : des solutions ayant permis de résoudre un problème sont réutilisées afin de résoudre un nouveau problème similaire. La plupart des systèmes de RàPC fonctionnent suivant un cycle composé de quatre étapes : retrouver, réutiliser, réviser et retenir. 5 5 Comme cela a été introduit dans le chapitre \ref{chap:contexte}, le raisonnement à partir de cas utilise quatre conteneurs de connaissance pour représenter la connaissance complète du système \cite{RICHTER20093}. Chaque conteneur stocke l'information associée à une fonction spécifique et le processus de construction d'une solution appropriée au problème posé est fondé sur le carré d'analogie : des solutions ayant permis de résoudre un problème sont réutilisées afin de résoudre un nouveau problème similaire. La plupart des systèmes de RàPC fonctionnent suivant un cycle composé de quatre étapes : retrouver, réutiliser, réviser et retenir.
6 6
Les travaux présentés dans ce chapitre ont nourri notre réflexion et ont ouvert des perspectives d'amélioration de performance du système AI-VT. Ce chapitre commence par la présentation de travaux emblématiques intégrant un réseau de neurones au cycle de RàPC. Cette première section est suivie d'une présentation de différents travaux liés à l'explicabilité, toujours en utilisant le RàPC. Des travaux récents sur la représentation des cas et le cycle du RàPC, puis sur l'intégration d'autres algorithmes au cycle du RàPC sont ensuite présentés. Pour finir, la prédiction et la recommandation via le RàPC terminent ce chapitre. 7 7 Les travaux présentés dans ce chapitre ont nourri notre réflexion et ont ouvert des perspectives d'amélioration de performance du système AI-VT. Ce chapitre commence par la présentation de travaux emblématiques intégrant un réseau de neurones au cycle de RàPC. Cette première section est suivie d'une présentation de différents travaux liés à l'explicabilité, toujours en utilisant le RàPC. Des travaux récents sur la représentation des cas et le cycle du RàPC, puis sur l'intégration d'autres algorithmes au cycle du RàPC sont ensuite présentés. Pour finir, la prédiction et la recommandation via le RàPC terminent ce chapitre.
8 8
\section{Intégration d'un réseau de neurones dans le cycle du RàPC} 9 9 \section{Intégration d'un réseau de neurones dans le cycle du RàPC}
10 10
Plusieurs travaux combinent le RàPC avec les réseaux de neurones dans l'objectif d'améliorer les réponses générées et optimiser les performances de chaque algorithme. C'est une idée explorée dès 2009 par Jung \textit{et al.} \cite{JUNG20095695}. Les auteurs de cet article ont en effet développé un système fondé sur l'hybridation du RàPC avec des réseaux de neurones pour concevoir des produits. Cette hybridation est implémentée dans les phases "rechercher" et "réutiliser" : le système détermine de façon automatique les valeurs pour les paramètres nécessaires à la conception d'un produit particulier en suivant le cycle traditionnel du RàPC. Avec l'algorithme de k-moyennes, un cas représentatif de la base de cas est extrait et l'adaptation des solutions des voisins trouvées est faite avec le réseau de neurones RBFN (\textit{Radial Basis Function Network}). L'évaluation du système est faite en utilisant une base de données contenant 830 tests, les résultats démontrent que les produits conçus s'ajustent avec un grand pourcentage aux normes définies. 11 11 Plusieurs travaux combinent le RàPC avec les réseaux de neurones dans l'objectif d'améliorer les réponses générées et optimiser les performances de chaque algorithme. C'est une idée explorée dès 2009 par Jung \textit{et al.} \cite{JUNG20095695}. Les auteurs de cet article ont en effet développé un système fondé sur l'hybridation du RàPC avec des réseaux de neurones pour concevoir des produits. Cette hybridation est implémentée dans les phases "rechercher" et "réutiliser" : le système détermine de façon automatique les valeurs pour les paramètres nécessaires à la conception d'un produit particulier en suivant le cycle traditionnel du RàPC. Avec l'algorithme de k-moyennes, un cas représentatif de la base de cas est extrait et l'adaptation des solutions des voisins trouvées est faite avec le réseau de neurones RBFN (\textit{Radial Basis Function Network}). L'évaluation du système est faite en utilisant une base de données contenant 830 tests, les résultats démontrent que les produits conçus s'ajustent avec un grand pourcentage aux normes définies.
Plusieurs travaux combinent le RàPC avec les réseaux de neurones dans l'objectif d'améliorer les réponses générées et optimiser les performances de chaque algorithme. C'est une idée explorée dès 2009 par Jung \textit{et al.} \cite{JUNG20095695}. Les auteurs de cet article ont en effet développé un système fondé sur l'hybridation du RàPC avec des réseaux de neurones pour concevoir des produits. Cette hybridation est implémentée dans les phases "rechercher" et "réutiliser" : le système détermine de façon automatique les valeurs pour les paramètres nécessaires à la conception d'un produit particulier en suivant le cycle traditionnel du RàPC. Avec l'algorithme de k-moyennes, un cas représentatif de la base de cas et l'adaptation des solutions des voisins trouvées est faite avec le réseau de neurones RBFN (\textit{Radial Basis Function Network}). L'évaluation du système est faite en utilisant une base de données contenant 830 tests, les résultats démontrent que les produits conçus s'ajustent avec un grand pourcentage aux normes définies. 12 12
13 13 Dans \cite{10.1007/978-3-642-15973-2_50} un réseau de neurones classique est implémenté pour définir la géométrie d'une matrice pour l'extrusion de l'aluminium. En effet, actuellement c'est un processus qui se fait manuellement et par essai et erreur. Le RàPC est alors utilisé pour aider à déterminer les valeurs optimales des paramètres du réseau, en utilisant l'information des matrices d'extrusion déjà testées.
Dans \cite{10.1007/978-3-642-15973-2_50} un réseau de neurones classique est implémenté pour définir la géométrie d'une matrice pour l'extrusion de l'aluminium. En effet, actuellement c'est un processus qui se fait manuellement et par essai et erreur. Le RàPC est alors utilisé pour aider à déterminer les valeurs optimales des paramètres du réseau, en utilisant l'information des matrices d'extrusion déjà testées. 14 14
15 15 Petrovic \textit{et al.} \cite{PETROVIC201617} proposent un système de raisonnement à partir de cas pour calculer la dose optimale de radiation pour le traitement du cancer. Dans ce domaine particulier de la radiothérapie, administrer une dose nécessite de connaître avec précision le nombre de faisceaux et l'angle de chacun d'eux. L'algorithme proposé tente de trouver la combinaison de valeurs optimales pour ces deux paramètres en utilisant les réseaux de neurones. L'utilisation des réseaux de neurones intervient lors de l'adaptation des cas connus : ils modifient le nombre et les angles des faisceaux. La validation de l'algorithme est évaluée avec une base de 80 cas réels de cancer du cerveau extraits de l'hôpital de Nottingham City. Le nombre de neurones et de couches ont été définis de façon empirique. Les résultats montrent que l'utilisation des cas historiques et la construction des solutions à partir des solutions déjà connues permet une amélioration de 12\% concernant la décision du nombre de faisceaux et de 29\% concernant la décision liée à leur angle.
Petrovic \textit{et al.} \cite{PETROVIC201617} proposent un système de raisonnement à partir de cas pour calculer la dose optimale de radiation pour le traitement du cancer. Dans ce domaine particulier de la radiothérapie, administrer une dose nécessite de connaître avec précision le nombre de faisceaux et l'angle de chacun d'eux. L'algorithme proposé tente de trouver la combinaison de valeurs optimales pour ces deux paramètres en utilisant les réseaux de neurones. L'utilisation des réseaux de neurones intervient lors de l'adaptation des cas connus : ils modifient le nombre et les angles des faisceaux. La validation de l'algorithme est évaluée avec une base de 80 cas réels de cancer du cerveau extraits de l'hôpital de Nottingham City. Le nombre de neurones et de couches ont été définis de façon empirique. Les résultats montrent que l'utilisation des cas historiques et la construction des solutions à partir des solutions déjà connues permet une amélioration de 12\% concernant la décision du nombre de faisceaux et de 29\% concernant la décision liée à leur angle. 16 16
17 17 \section{Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}
\section{Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus} 18 18
19 19 La génération, l'analyse et la correction de textes constituent également des domaines d'application intéressants du RàPC. Pour la réalisation de ces tâches il est parfois nécessaire de transformer le texte en représentation numérique ou de mesurer la proximité sémantique de mots. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit explore les transformations possibles afin que la nouvelle histoire ne soit pas très similaire aux histoires déjà connues mais qu'elle soit cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de celle-ci déterminent si l'histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit recommencer; l'adaptation se fait en recherchant les personnages, les contextes, les objets dans la base de cas, et en les unifiant avec des actions; la plupart des histoires générées sont cohérentes mais elles sont constituées de paragraphes très courts.
La génération, l'analyse et la correction de textes constituent également des domaines d'application intéressants du RàPC. Pour la réalisation de ces tâches il est parfois nécessaire de transformer le texte en représentation numérique ou de mesurer la proximité sémantique de mots. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit explore les transformations possibles afin que la nouvelle histoire ne soit pas très similaire aux histoires déjà connues mais qu'elle soit cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de celle-ci déterminent si l'histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit recommencer; l'adaptation se fait en recherchant les personnages, les contextes, les objets dans la base de cas, et en les unifiant avec des actions; la plupart des histoires générées sont cohérentes mais elles sont constituées de paragraphes très courts. 20 20
21 21 Dans \cite{10.1007/978-3-030-58342-2_20} les phrases écrites en langue française sont corrigées. Ce travail n'utilise ni la transformation numérique des phrases, ni de connaissances linguistiques, mais retrouve les phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et calcule une mesure de distance avec les phrases correctes et incorrectes de la base de connaissances. Si les phrases similaires sont incorrectes, le système peut proposer une correction en changeant certains mots selon le contexte et recalculer les distances afin de mesurer la cohérence et la pertinence de la phrase proposée.
Dans \cite{10.1007/978-3-030-58342-2_20} les phrases écrites en langue française sont corrigées. Ce travail n'utilise ni la transformation numérique des phrases, ni de connaissances linguistiques, mais retrouve les phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et calcule une mesure de distance avec les phrases correctes et incorrectes de la base de connaissances. Si les phrases similaires sont incorrectes, le système peut proposer une correction en changeant certains mots selon le contexte et recalculer les distances afin de mesurer la cohérence et la pertinence de la phrase proposée. 22 22
23 23 Plus récemment Wolf \textit{et al.} \cite{wolf2024keep} ont présenté un système dans lequel le RàPC est employé pour expliquer les résultats générés par un réseau qui classifie les images en fonction de certains attributs et zones dans les images. Les résultats obtenus permettent de conclure que le RàPC permet d'expliquer fidèlement le contenu des images testées.
Plus récemment Wolf \textit{et al.} \cite{wolf2024keep} ont présenté un système dans lequel le RàPC est employé pour expliquer les résultats générés par un réseau qui classifie les images en fonction de certains attributs et zones dans les images. Les résultats obtenus permettent de conclure que le RàPC permet d'expliquer fidèlement le contenu des images testées. 24 24
25 25 \cite{PAREJASLLANOVARCED2024111469} utilisent également le RàPC pour sélectionner la meilleure explication au résultat donné par le classificateur d'images fondé sur l'apprentissage profond (\textit{Deep Learning}). Dans ce système, la base de connaissances est constituée d'images avec des étiquettes décrivant l'information associée. Les résultats obtenus par ce système sont très prometteurs.
\cite{PAREJASLLANOVARCED2024111469} utilisent également le RàPC pour sélectionner la meilleure explication au résultat donné par le classificateur d'images fondé sur l'apprentissage profond (\textit{Deep Learning}). Dans ce système, la base de connaissances est constituée d'images avec des étiquettes décrivant l'information associée. Les résultats obtenus par ce système sont très prometteurs. 26 26
27 27 \section{Travaux récents sur la représentation des cas et le cycle du RàPC}
\section{Travaux récents sur la représentation des cas et le cycle du RàPC} 28 28
29 29 Certains travaux ont appliqué le raisonnement à partir de cas à un problème spécifique en modifiant les représentations des cas et des solutions. D'autres ont modifié le cycle conceptuel comme le montre la figure \figref{figMCBR2} avec l'objectif d'obtenir des réponses dynamiques et plus aptes à proposer des solutions à des problèmes complexes.
Certains travaux ont appliqué le raisonnement à partir de cas à un problème spécifique en modifiant les représentations des cas et des solutions. D'autres ont modifié le cycle conceptuel comme le montre la figure \figref{figMCBR2} avec l'objectif d'obtenir des réponses dynamiques et plus aptes à proposer des solutions à des problèmes complexes. 30 30
31 31 En effet, la représentation des cas peut permettre d'améliorer les résultats d'un système de RàPC. La performance d'un système de RàPC dépend de la quantité d'informations stockées, mais également des algorithmes implémentés. C'est le cas dans \cite{Muller} où les recettes de cuisine sont codées comme un processus de transformation et mélangent des ingrédients en suivant une suite d'étapes ordonnées. Pour créer des recettes innovantes, une mesure de distance est utilisée entre les ingrédients. Cette mesure permet de trouver une recette en substituant certains ingrédients par d'autres, similaires ou aux qualités et/ou caractéristiques similaires. De la même manière, il est possible de créer des recettes plus proches des exigences des utilisateurs. Les étapes de transformation appelées aussi opérateurs sont stockées et catégorisées grâce à une métrique permettant de les échanger afin d'obtenir une nouvelle recette.
En effet, la représentation des cas peut permettre d'améliorer les résultats d'un système de RàPC. La performance d'un système de RàPC dépend de la quantité d'informations stockées, mais également des algorithmes implémentés. C'est le cas dans \cite{Muller} où les recettes de cuisine sont codées comme un processus de transformation et mélangent des ingrédients en suivant une suite d'étapes ordonnées. Pour créer des recettes innovantes, une mesure de distance est utilisée entre les ingrédients. Cette mesure permet de trouver une recette en substituant certains ingrédients par d'autres, similaires ou aux qualités et/ou caractéristiques similaires. De la même manière, il est possible de créer des recettes plus proches des exigences des utilisateurs. Les étapes de transformation appelées aussi opérateurs sont stockées et catégorisées grâce à une métrique permettant de les échanger afin d'obtenir une nouvelle recette. 32 32
33 33 Les auteurs de \cite{10.1007/978-3-319-47096-2_11} introduisent un cycle complémentaire incluant un outil d'apprentissage profond pour améliorer le résultat du système fondé sur le RàPC.
Les auteurs de \cite{10.1007/978-3-319-47096-2_11} introduisent un cycle complémentaire incluant un outil d'apprentissage profond pour améliorer le résultat du système fondé sur le RàPC. 34 34
35 35 Dans \cite{10.1007/978-3-642-15973-2_50}, la phase de stockage est modifiée en retenant les cas dont les résultats n'ont pas eu de succès, pour guider le processus dans la fabrications de nouvelles pièces.
Dans \cite{10.1007/978-3-642-15973-2_50}, la phase de stockage est modifiée en retenant les cas dont les résultats n'ont pas eu de succès, pour guider le processus dans la fabrications de nouvelles pièces. 36 36
37 37 Enfin, dans \cite{Robertson2014ARO}, les auteurs proposent d'ajouter à chaque cas une valeur d'utilité espérée en fonction de chaque action possible. Cet ajout s'accompagne d'une prédiction probabiliste des actions que l'application engendrera en réponse. Cette prédiction probabiliste dépend bien entendu de l'état initial du système avant la mise en œuvre de l'action.
Enfin, dans \cite{Robertson2014ARO}, les auteurs proposent d'ajouter à chaque cas une valeur d'utilité espérée en fonction de chaque action possible. Cet ajout s'accompagne d'une prédiction probabiliste des actions que l'application engendrera en réponse. Cette prédiction probabiliste dépend bien entendu de l'état initial du système avant la mise en œuvre de l'action. 38 38
39 39 \mfigure[!ht]{width=\textwidth}{./Figures/ModCBR2.png}{Ajout d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (Traduit de \cite{10.1007/978-3-319-47096-2_11})}{figMCBR2}
\mfigure[!ht]{width=\textwidth}{./Figures/ModCBR2.png}{Ajout d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (Traduit de \cite{10.1007/978-3-319-47096-2_11})}{figMCBR2} 40 40
41 41 Plusieurs travaux appliquent le RàPC avec succès en proposant des modifications dans chacune des phases ou en combinant différents algorithmes. Certains systèmes de RàPC appliqués au domaine de la conception de produits sont remarquables à ce titre.
Plusieurs travaux appliquent le RàPC avec succès en proposant des modifications dans chacune des phases ou en combinant différents algorithmes. Certains systèmes de RàPC appliqués au domaine de la conception de produits sont remarquables à ce titre. 42 42
43 43 Dans \cite{ROLDANREYES20151}, les auteurs proposent un algorithme pour produire le propylène glycol dans un réacteur chimique comme le montre la figure \figref{figMCBR1}. Dans ce cas, la phase de réutilisation du RàPC est couplée à la recherche des états satisfaisant le nouveau problème (\textit{Constraint satisfaction problems CSP}) en utilisant l'information des cas de base déjà résolus. Les solutions trouvées sont évaluées selon le nombre de changements réalisés sur les solutions déjà connues (parcimonie), le nombre de solutions possibles trouvées (précision), l'évaluation de commentaires faits par des experts et la complexité des transformations réalisées.
Dans \cite{ROLDANREYES20151}, les auteurs proposent un algorithme pour produire le propylène glycol dans un réacteur chimique comme le montre la figure \figref{figMCBR1}. Dans ce cas, la phase de réutilisation du RàPC est couplée à la recherche des états satisfaisant le nouveau problème (\textit{Constraint satisfaction problems CSP}) en utilisant l'information des cas de base déjà résolus. Les solutions trouvées sont évaluées selon le nombre de changements réalisés sur les solutions déjà connues (parcimonie), le nombre de solutions possibles trouvées (précision), l'évaluation de commentaires faits par des experts et la complexité des transformations réalisées. 44 44
45 45 \mfigure[!ht]{width=\textwidth}{./Figures/ModCBR1.png}{Cycle du RàPC modifié. (Traduit de \cite{ROLDANREYES20151})}{figMCBR1}
\mfigure[!ht]{width=\textwidth}{./Figures/ModCBR1.png}{Cycle du RàPC modifié. (Traduit de \cite{ROLDANREYES20151})}{figMCBR1} 46 46
47 47 Dans \cite{10.1007/978-3-319-47096-2_11}, les auteurs ajoutent un nouveau cycle au cycle traditionnel du RàPC. Le premier cycle génère des descriptions abstraites du problème avec un réseau de neurones et des algorithmes génétiques; le second cycle prend les descriptions abstraites comme des nouveaux cas, cherche les cas similaires et adapte les solutions rencontrées. L'exécution des deux cycles prend en compte certains critères prédéfinis par l'utilisateur. En comparant le même problème avec le cycle traditionnel du RàPC, les auteurs mesurent une amélioration de la qualité des recettes proposées et montrent que celles-ci sont plus en accord avec les critères définis.
Dans \cite{10.1007/978-3-319-47096-2_11}, les auteurs ajoutent un nouveau cycle au cycle traditionnel du RàPC. Le premier cycle génère des descriptions abstraites du problème avec un réseau de neurones et des algorithmes génétiques; le second cycle prend les descriptions abstraites comme des nouveaux cas, cherche les cas similaires et adapte les solutions rencontrées. L'exécution des deux cycles prend en compte certains critères prédéfinis par l'utilisateur. En comparant le même problème avec le cycle traditionnel du RàPC, les auteurs mesurent une amélioration de la qualité des recettes proposées et montrent que celles-ci sont plus en accord avec les critères définis. 48 48
49 49 \cite{10.1007/978-3-319-61030-6_1} s'intéressent quant à eux à la génération de recettes de cuisine originales. Les auteurs modifient le cycle traditionnel du RàPC et créent deux cycles, combinant l'apprentissage profond et la récupération de cas fondée sur la similarité. Le premier cycle génère des descriptions abstraites de la conception avec des algorithmes génétiques et un réseau neuronal profond. Le second cycle utilise les descriptions abstraites pour récupérer et adapter des objets. Cette structure donne lieu à un prototype appelé Q-chef qui génère une recette fondée sur d'autres ingrédients connus du système et les demandes de l'utilisateur. Ce travail ne montre pas de métriques standard génériques mais utilise deux nombres indicatifs (plausibilité et surprise) pour démontrer la génération efficace de nouvelles recettes selon les critères de l'utilisateur en comparant le RàPC à deux cycles avec le RàPC à un cycle, démontrant plus de plausibilité et de surprise dans les recettes générées.
\cite{10.1007/978-3-319-61030-6_1} s'intéressent quant à eux à la génération de recettes de cuisine originales. Les auteurs modifient le cycle traditionnel du RàPC et créent deux cycles, combinant l'apprentissage profond et la récupération de cas fondée sur la similarité. Le premier cycle génère des descriptions abstraites de la conception avec des algorithmes génétiques et un réseau neuronal profond. Le second cycle utilise les descriptions abstraites pour récupérer et adapter des objets. Cette structure donne lieu à un prototype appelé Q-chef qui génère une recette fondée sur d'autres ingrédients connus du système et les demandes de l'utilisateur. Ce travail ne montre pas de métriques standard génériques mais utilise deux nombres indicatifs (plausibilité et surprise) pour démontrer la génération efficace de nouvelles recettes selon les critères de l'utilisateur en comparant le RàPC à deux cycles avec le RàPC à un cycle, démontrant plus de plausibilité et de surprise dans les recettes générées. 50 50
51 51 \section{Intégration d'autres algorithmes dans le cycle du RàPC}
\section{Intégration d'autres algorithmes dans le cycle du RàPC} 52 52
53 53 Par rapport à l'intégration du RàPC avec d'autres algorithmes nous pouvons citer \cite{buildings13030651} qui mettent en œuvre un RáPC avec une méthode d'agrégation \textit{bootstrap} (\textit{bagging}) pour améliorer la précision du RàPC lorsqu'il n'y a pas suffisamment de cas et réduire la variance. L'une des problématiques auxquelles les auteurs tentent de répondre dans cet article est l'estimation des coûts conceptuels dans les décisions de faisabilité d'un projet lorsque l'on ne dispose pas de suffisamment d'informations sur la conception détaillée et les exigences du projet. Les résultats ont révélé que le RàPC associé à \textit{bootstrap} est plus performant que le RàPC non associé à \textit{bootstrap}.
Par rapport à l'intégration du RàPC avec d'autres algorithmes nous pouvons citer \cite{buildings13030651} qui mettent en œuvre un RáPC avec une méthode d'agrégation \textit{bootstrap} (\textit{bagging}) pour améliorer la précision du RàPC lorsqu'il n'y a pas suffisamment de cas et réduire la variance. L'une des problématiques auxquelles les auteurs tentent de répondre dans cet article est l'estimation des coûts conceptuels dans les décisions de faisabilité d'un projet lorsque l'on ne dispose pas de suffisamment d'informations sur la conception détaillée et les exigences du projet. Les résultats ont révélé que le RàPC associé à \textit{bootstrap} est plus performant que le RàPC non associé à \textit{bootstrap}. 54 54
55 55 Un modèle d'ensemble fondé sur le raisonnement à partir de cas est proposé par \cite{YU2023110163}. Celui-ci est appliqué à la prédiction financière et au remplissage des données manquantes. Dans ce système, pour retrouver les plus proches voisins, le modèle utilise trois mesures de distance différentes et une étape de vote pour l'intégration. Le modèle a été testé avec une base de données comportant $11$ caractéristiques (informations) financières provenant de $249$ entreprises. La comparaison est faite avec deux objectifs. Premièrement, le remplissage des données manquantes avec d'autres algorithmes tels que KNN ou \textit{Random Forest}, et deuxièmement, la comparaison de la prédiction avec des algorithmes uniques utilisant une métrique de distance spécifique. Les résultats obtenus montrent que le système est plus performant aussi bien pour le remplissage des données manquantes que pour la prédiction des données financières.
Un modèle d'ensemble fondé sur le raisonnement à partir de cas est proposé par \cite{YU2023110163}. Celui-ci est appliqué à la prédiction financière et au remplissage des données manquantes. Dans ce système, pour retrouver les plus proches voisins, le modèle utilise trois mesures de distance différentes et une étape de vote pour l'intégration. Le modèle a été testé avec une base de données comportant onze caractéristiques (informations) financières provenant de 249 entreprises. La comparaison est faite avec deux objectifs. Premièrement, le remplissage des données manquantes avec d'autres algorithmes tels que KNN ou \textit{Random Forest}, et deuxièmement, la comparaison de la prédiction avec des algorithmes uniques utilisant une métrique de distance spécifique. Les résultats obtenus montrent que le système est plus performant aussi bien pour le remplissage des données manquantes que pour la prédiction des données financières. 56 56
57 57 Une étape très importante dans le RàPC est l'adaptation. Dans \cite{10.1007/978-3-031-63646-2_4} l'objectif est de changer la représentation de la connaissance pour évaluer s'il y a un impact positif dans les solutions générées. Ce changement permet aussi d'établir des règles d'adaptation. Les résultats démontrent que choisir une représentation adéquate et des règles correctes en fonction du problème étudié peut améliorer la qualité des solutions pour résoudre des problèmes complexes.
Une étape très importante dans le RàPC est l'adaptation. Dans \cite{10.1007/978-3-031-63646-2_4} l'objectif est changer la représentation de la connaissance pour évaluer s'il y a un impact positif dans les solutions générées, ce changement permet aussi d'établir règles d'adaptation, les résultats permettent de dire que choisir une représentation adéquate et des règles correctes en fonction du problème étudié peut améliorer la qualité des solutions pour résoudre des problèmes complexes. 58 58
59 59 \section{Prédiction et interpolation en utilisant le RàPC}
\section{Prédiction et interpolation en utilisant le RàPC} 60 60
61 61 L'objectif du travail de \cite{10.1007/978-3-030-01081-2_25} est la prédiction du temps de course d'un athlète. L'algorithme KNN est utilisé pour rechercher les cas similaires. Le système interpole un temps final grâce au calcul d'une moyenne pondérée des meilleurs temps des cas similaires retrouvés dans la première étape du RàPC.
L'objectif du travail de \cite{10.1007/978-3-030-01081-2_25} est la prédiction du temps de course pour un athlète. L'algorithme KNN est utilisé pour rechercher les cas similaires. Le système interpole un temps final grâce au calcul d'une moyenne pondérée des meilleurs temps des cas similaires retrouvés dans la première étape du RàPC. 62 62
63 63 Dans \cite{10.1007/978-3-030-58342-2_8}, les auteurs essaient de prédire le meilleur temps d'un patineur par analogie avec ceux des patineurs ayant des caractéristiques et une histoire de course similaires. Toutefois, calculer une moyenne des temps similaires trouvés ne suffit pas toujours. Certaines caractéristiques liées au contexte, à l'environnement et à la nature de la course (le type de course, le type de piste, la distance à parcourir, etc.), peuvent en effet influencer de manière importante la performance du patineur. L'algorithme a été testé avec une base de données contenant les informations de 21 courses de 500m, 700m, 1000m, 1500m, 3km, 5km and 10km réalisées entre Septembre 2015 et Janvier 2020.
Dans \cite{10.1007/978-3-030-58342-2_8}, les auteurs essaient de prédire le meilleur temps d'un patineur par analogie avec ceux des patineurs ayant des caractéristiques et une histoire de course similaires. Cependant, parfois, calculer une moyenne des temps similaires trouvés ne suffit pas. Certaines caractéristiques liées au contexte, à l'environnement et à la nature de la course (le type de course, le type de piste, la distance à parcourir, etc.), peuvent en effet influencer de manière importante la performance du patineur. L'algorithme a été testé avec une base de données contenant les informations de 21 courses de 500m, 700m, 1000m, 1500m, 3km, 5km and 10km réalisées entre Septembre 2015 et Janvier 2020. 64 64
65 65 Un système multi-fonctionnel est décrit dans \cite{10.1007/978-3-030-58342-2_5}. Celui-ci permet d'obtenir une prédiction du temps de course, de suggérer un plan du rythme de la course et il recommande également un plan d'entraînement pour une course donnée. Les trois fonctionnalités sont implémentées en utilisant le RàPC. Les calculs de la similarité sont fondés sur un historique et des caractéristiques physiques des coureurs. Les plans d'entraînement sont génériques et sont proposés sur les 16 semaines précédant le début du marathon ciblé (selon les auteurs, c'est en effet le temps usuel pour une préparation à ce type d'épreuve). Le système a été évalué avec une base de données constituée de caractéristiques de 21000 coureurs des marathons de Dublin, Londres ou New-York pour la période de 2014 à 2017.
Un système multi-fonctionnel est décrit dans \cite{10.1007/978-3-030-58342-2_5}. Celui-ci permet d'obtenir une prédiction du temps de course, de suggérer un plan du rythme de la course et il recommande également un plan d'entraînement pour une course donnée. Les trois fonctionnalités sont implémentées en utilisant le RàPC. Les calculs de la similarité sont fondés sur un historique et des caractéristiques physiques des coureurs. Les plans d'entraînement sont génériques et sont proposés sur les 16 semaines précédant le début du marathon ciblé (selon les auteurs, c'est en effet le temps usuel pour une préparation à ce type d'épreuve). Le système a été évalué avec une base de données constituée de caractéristiques de 21000 coureurs des marathons de Dublin, Londres ou New-York pour la période de 2014 à 2017. 66 66
67 67 Les auteurs de \cite{YU2024123745} proposent un algorithme en deux étapes pour prédire avec précision et robustesse la détresse financière. Les deux étapes utilisent le RàPC. La première étape consiste à compléter les valeurs manquantes de la base de données considérée. Un cycle de RàPC est ensuite combiné avec un LVQ (\textit{Learning Vector Quantization}) pour interpoler une classification. Les résultats obtenus sont prometteurs.
Les auteurs de \cite{YU2024123745} proposent un algorithme en deux étapes pour prédire avec précision et robustesse la détresse financière. Les deux étapes utilisent le RàPC. La première étape consiste à compléter les valeurs manquantes de la base de données considérée. Un cycle de RàPC est ensuite combiné avec un LVQ (\textit{Learning Vector Quantization}) pour interpoler une classification. Les résultats obtenus sont prometteurs. 68 68
69 69 Les auteurs de \cite{Sadeghi} présentent un nouvel algorithme pour la prévision de la demande de matériel de secours. Le système décrit dans cet article combine le RàPC avec la méthode du meilleur-pire (\textit{Best-Worst Method}, BWM) et les modèles de Markov cachés (\textit{Hidden Markov Model}, HMM). Le HMM est entrainé avec des données historiques de demande de matériel. Lorsque l'algorithme détecte un accident, le RàPC recherche les cas similaires pour proposer le matériel nécessaire. D'après les résultats, l'indice d'erreur de prévision est inférieur à 10\%, démontrant ainsi la robustesse du système CBR-BWM-HMM proposé.
Les auteurs de \cite{Sadeghi} présentent un nouvel algorithme pour la prévision de la demande de matériel de secours. Le système décrit dans cet article combine le RàPC avec la méthode du meilleur-pire (\textit{Best-Worst Method}, BWM) et les modèles de Markov cachés (\textit{Hidden Markov Model}, HMM). Le HMM est entrainé avec des données historiques de demande de matériel. Lorsque l'algorithme détecte un accident, le RàPC recherche les cas similaires pour proposer le matériel nécessaire. D'après les résultats, l'indice d'erreur de prévision est inférieur à 10\%, démontrant ainsi la robustesse du système CBR-BWM-HMM proposé. 70 70
71 71 \section{Recommandation, EIAH et RàPC}
\section{Recommandation, EIAH et RàPC} 72 72
73 73 Les systèmes de recommandation et le RàPC peuvent aussi être combinés comme dans le système proposé par \cite{8495930}. Cet article montre les bénéfices de l'utilisation du RàPC dans les environnements informatiques pour l'apprentissage humain (EIAH). Le modèle proposé suit le cycle traditionnel du RàPC en combinant les modèles d'apprentissages traditionnels et numériques. Les principales contributions sont la représentation des cas et la recommandation des parcours d'apprentissage personnalisés selon les informations issues des autres apprenants. Une base de cas initiaux a été créée pour mesurer l'efficacité du modèle. Celle-ci stocke la recommandation du parcours de 120 apprenants. Des examens, réalisés avant et après avoir suivi le parcours recommandé par le système, permettent de mesurer l'efficacité de la recommandation proposée.
Les systèmes de recommandation et le RàPC peuvent aussi être combinés comme dans le système proposé par \cite{8495930}. Cet article montre les bénéfices de l'utilisation du RàPC dans les environnements informatiques pour l'apprentissage humain (EIAH). Le modèle proposé suit le cycle traditionnel du RàPC en combinant les modèles d'apprentissages traditionnels et numériques. Les principales contributions sont la représentation des cas et la recommandation des parcours d'apprentissage personnalisés selon les informations issues des autres apprenants. Une base de cas initiaux a été créée pour mesurer l'efficacité du modèle. Celle-ci stocke la recommandation du parcours de 120 apprenants. Des examens, réalisés avant et après avoir suivi le parcours recommandé par le système, permettent de mesurer l'efficacité de la recommandation proposée. 74 74
75 75 Le système décrit dans \cite{Obeid} présente la particularité d'être capable d'analyser des données hétérogènes et multidimensionnelles. Dans ce travail, un parcours de carrière associé aux universités/collèges est recommandé aux élèves du secondaire en fonction de leurs intérêts. Ce travail montre également une taxonomie des techniques algorithmiques généralement utilisées dans les systèmes de recommandation pour les EIAH (figure \figref{figTax}).
Le système décrit dans \cite{Obeid} présente la particularité d'être capable d'analyser des données hétérogènes et multidimensionnelles. Dans ce travail, un parcours de carrière associé aux universités/collèges est recommandé aux élèves du secondaire en fonction de leurs intérêts. Ce travail montre également une taxonomie des techniques algorithmiques généralement utilisées dans les systèmes de recommandation pour les EIAH (figure \figref{figTax}). 76 76
77 77 En fonction de certains paramètres comme le type d'école, le nombre d'étudiants admis et non admis, le nombre de classes, les auteurs de \cite{skittou2024recommender} développent un modèle hybride combinant RàPC et raisonnement à partir de règles pour recommander des actions de planification en réponse à des cas éducatifs des écoles primaires. Le modèle a été testé sur des données réelles et a donné de bons résultats avec une grande précision.
En fonction de certains paramètres comme le type d'école, le nombre d'étudiants admis et non admis, le nombre de classes, les auteurs de \cite{skittou2024recommender} développent un modèle hybride combinant RàPC et raisonnement à partir de règles pour recommander des actions de planification en réponse à des cas éducatifs des écoles primaires. Le modèle a été testé sur des données réelles et a donné de bons résultats avec une grande précision. 78 78
79 79 %Le RàPC a également été mis en oeuvre dans différents travaux liés à la génération, l’analyse et la correction de textes écrits. Pour la réalisation de ces tâches, il est parfois nécessaire de transformer le texte en représentation numérique ou d’établir une fonction ou mesure qui va indiquer quels mots ont une proximité sémantique. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit dans ce travail explore les transformations de forme possibles afin que la nouvelle histoire ne soit pas similaire aux histoires déjà connues tout en étant cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de la révision déterminent si l’histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit être recommencé. L'adaptation se fait en cherchant dans la base des cas, les personnages, les contextes, les objets et en \colorbox{pink}{unifiant tout avec des actions ??}. Les résultats montrent que la plupart des histoires générées sont cohérentes mais qu'elles sont constituées de paragraphes très courts. Dans \cite{10.1007/978-3-030-58342-2_20}, les phrases écrites en langue française sont corrigées, ce travail n'utilise ni la transformation numérique \colorbox{yellow}{?} des phrases, ni des connaissances linguistiques. Le système conçu retrouve des phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et en calculant la distance entre toutes les phrases \colorbox{yellow}{lesquelles ?} pour savoir \colorbox{pink}{je ne comprends pas la suite }si elle est bien écrite ou pas. Si la phrase n’est pas bien écrite, le système peut proposer une correction en changeant certains mots selon le contexte et calculer à nouveau les distances mesurant la cohérence et pertinence de la phrase.
%Le RàPC a également été mis en oeuvre dans différents travaux liés à la génération, l’analyse et la correction de textes écrits. Pour la réalisation de ces tâches, il est parfois nécessaire de transformer le texte en représentation numérique ou d’établir une fonction ou mesure qui va indiquer quels mots ont une proximité sémantique. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit dans ce travail explore les transformations de forme possibles afin que la nouvelle histoire ne soit pas similaire aux histoires déjà connues tout en étant cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de la révision déterminent si l’histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit être recommencé. L'adaptation se fait en cherchant dans la base des cas, les personnages, les contextes, les objets et en \colorbox{pink}{unifiant tout avec des actions ??}. Les résultats montrent que la plupart des histoires générées sont cohérentes mais qu'elles sont constituées de paragraphes très courts. Dans \cite{10.1007/978-3-030-58342-2_20}, les phrases écrites en langue française sont corrigées, ce travail n'utilise ni la transformation numérique \colorbox{yellow}{?} des phrases, ni des connaissances linguistiques. Le système conçu retrouve des phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et en calculant la distance entre toutes les phrases \colorbox{yellow}{lesquelles ?} pour savoir \colorbox{pink}{je ne comprends pas la suite }si elle est bien écrite ou pas. Si la phrase n’est pas bien écrite, le système peut proposer une correction en changeant certains mots selon le contexte et calculer à nouveau les distances mesurant la cohérence et pertinence de la phrase. 80 80
81 81 \mfigure[!ht]{width=\textwidth}{./Figures/taxonomieEIAH.png}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite{Obeid})}{figTax}
\mfigure[!ht]{width=\textwidth}{./Figures/taxonomieEIAH.png}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite{Obeid})}{figTax} 82 82
83 83 %\begin{figure}
%\begin{figure} 84 84 %\centering
%\centering 85 85 %\includegraphics[scale=21]{./Figures/taxonomieEIAH.png}
%\includegraphics[scale=21]{./Figures/taxonomieEIAH.png} 86 86 %\caption{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (\cite{Obeid})}
%\caption{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (\cite{Obeid})} 87 87 %\label{figTax}
%\label{figTax} 88 88 %\end{figure}
%\end{figure} 89 89
90 90 \section{Récapitulatif des limites des travaux présentés dans ce chapitre}
\section{Récapitulatif des limites des travaux présentés dans ce chapitre} 91 91
92 92 Le tableau \ref{tabArts2} récapitule les articles analysés dans cet état de l'art du RàPC et rappelle les limitations que nous avons identifiées. Ces limitations sont liées aux données, à la flexibilité, à la généralisation de l'algorithme proposé, à la validité des solutions proposées, l'automatisation du processus et complexité du modèle proposée.
Le tableau \ref{tabArts2} récapitule les articles analysés dans cet état de l'art du RàPC et rappelle les limitations que nous avons identifiées. Ces limitations sont liées aux données, à la flexibilité, à la généralisation de l'algorithme proposé, à la validité des solutions proposées, l'automatisation du processus et complexité du modèle proposée. 93 93
94 94 En complément, deux problèmes très communs des systèmes de recommandation peuvent être ajoutées à ces limitations :
En complément, deux problèmes très communs des systèmes de recommandation peuvent être ajoutées à ces limitations : 95 95 \begin{itemize}
\begin{itemize} 96 96 \item le \textit{cold-start} qui se produit au début d'une recommandation lorsqu'il n'y a pas suffisamment de données pour calculer ou inférer une recommandation appropriée \cite{HU2025127130}, et
\item le \textit{cold-start} qui se produit au début d'une recommandation lorsqu'il n'y a pas suffisamment de données pour calculer ou inférer une recommandation appropriée \cite{HU2025127130}, et 97 97 \item le \textit{gray-sheep} qui se produit lorsqu'un utilisateur présente un comportement très différent de ceux qui sont stockés dans la base de données. Le système ne peut donc pas générer des recommandations en se basant sur l'information disponible \cite{ALABDULRAHMAN2021114061}.
\item le \textit{gray-sheep} qui se produit lorsqu'un utilisateur présente un comportement très différent de ceux qui sont stockés dans la base de données. Le système ne peut donc pas générer des recommandations en se basant sur l'information disponible \cite{ALABDULRAHMAN2021114061}. 98 98 \end{itemize}
\end{itemize} 99 99
100 100 \begin{table}
\begin{table} 101 101 \footnotesize
\footnotesize 102 102 \begin{tabular}{p{4.4cm}p{9cm}}
\begin{tabular}{p{4.4cm}p{9cm}} 103 103 Ref&Limites\\
Ref&Limites\\ 104 104 \hline
\hline 105 105
106 106 \cite{JUNG20095695}&Le modèle d'adaptation proposé fonctionne seulement avec des cas très proches. L'apprentissage dans le RàCP se limite à stocker les nouveaux cas.\\
\cite{JUNG20095695}&Le modèle d'adaptation proposé fonctionne seulement avec des cas très proches. L'apprentissage dans le RàCP se limite à stocker les nouveaux cas.\\ 107 107
108 108 \cite{10.1007/978-3-642-15973-2_50}&Le RàPC n'est pas modifié ou amélioré. La révision dans le RàPC n'est pas automatique.\\
\cite{10.1007/978-3-642-15973-2_50}&Le RàPC n'est pas modifié ou amélioré. La révision dans le RàPC n'est pas automatique.\\ 109 109
110 110 \cite{PETROVIC201617}&Grande quantité de données pour que l'algorithme fonctionne correctement. Recommandation limitée à un problème très spécifique.\\
\cite{PETROVIC201617}&Grande quantité de données pour que l'algorithme fonctionne correctement. Recommandation limitée à un problème très spécifique.\\ 111 111
112 112 \cite{wolf2024keep}&Le modèle n'est actuellement appliqué qu'à la classification d'images à un seul label. \\
\cite{wolf2024keep}&Le modèle n'est actuellement appliqué qu'à la classification d'images à un seul label. \\ 113 113
114 114 \cite{PAREJASLLANOVARCED2024111469}&La base de données de test a été construite avec des évaluations subjectives. Le modèle ne considère pas les incertitudes.\\
\cite{PAREJASLLANOVARCED2024111469}&La base de données de test a été construite avec des évaluations subjectives. Le modèle ne considère pas les incertitudes.\\ 115 115
116 116 \cite{ROLDANREYES20151}&Une seule méthode d'adaptation est utilisée. Le modèle n'exploite pas les cas qui présentent une erreur.\\
\cite{ROLDANREYES20151}&Une seule méthode d'adaptation est utilisée. Le modèle n'exploite pas les cas qui présentent une erreur.\\ 117 117
118 118 \cite{10.1007/978-3-319-47096-2_11}&Beaucoup de données sont nécessaires pour entraîner le modèle de 'Deep Learning'. Les solutions générées n'ont pas été validées.\\
\cite{10.1007/978-3-319-47096-2_11}&Beaucoup de données sont nécessaires pour entraîner le modèle de 'Deep Learning'. Les solutions générées n'ont pas été validées.\\ 119 119
120 120 \cite{10.1007/978-3-319-61030-6_1}&L'évaluation des solutions générées n'est pas automatique. Les solutions sont produites avec un seul point de vue.\\
\cite{10.1007/978-3-319-61030-6_1}&L'évaluation des solutions générées n'est pas automatique. Les solutions sont produites avec un seul point de vue.\\ 121 121
122 122 \cite{buildings13030651}&La fonction d'unification des solutions est une moyenne des solutions générées avec la division des données et une seule approche\\
\cite{buildings13030651}&La fonction d'unification des solutions est une moyenne des solutions générées avec la division des données et une seule approche\\ 123 123
124 124 \cite{YU2023110163}&Une base de données déséquilibrée peut affecter négativement la performance du modèle proposé\\
\cite{YU2023110163}&Une base de données déséquilibrée peut affecter négativement la performance du modèle proposé\\ 125 125
126 126 \cite{Muller}&Une seule approche pour adapter les cas dans le RàPC. La révision dans le RàPC n'est pas automatique.\\
\cite{Muller}&Une seule approche pour adapter les cas dans le RàPC. La révision dans le RàPC n'est pas automatique.\\ 127 127
128 128 \cite{10.1007/978-3-319-24586-7_20}&Les solutions générées peuvent présenter des incohérences. Il n'y a pas une métrique objective pour mesurer la qualité des réponses.\\
\cite{10.1007/978-3-319-24586-7_20}&Les solutions générées peuvent présenter des incohérences. Il n'y a pas une métrique objective pour mesurer la qualité des réponses.\\ 129 129
130 130 \cite{10.1007/978-3-030-58342-2_20}&Les résultats ne sont pas très bons. Le modèle n'a pas de connaissances linguistiques.\\
\cite{10.1007/978-3-030-58342-2_20}&Les résultats ne sont pas très bons. Le modèle n'a pas de connaissances linguistiques.\\ 131 131
132 132 \cite{10.1007/978-3-031-63646-2_4}&Les règles d'adaptation définies sont fixes et peuvent être limitées pour certaines situations.\\
\cite{10.1007/978-3-031-63646-2_4}&Les règles d'adaptation définies sont fixes et peuvent être limitées pour certaines situations.\\ 133 133
134 134 \cite{10.1007/978-3-030-01081-2_25}&Les prédictions n'ont pas été testées dans le monde réel. Les données sont très spécifiques et peu variées.\\
\cite{10.1007/978-3-030-01081-2_25}&Les prédictions n'ont pas été testées dans le monde réel. Les données sont très spécifiques et peu variées.\\ 135 135
136 136 \cite{10.1007/978-3-030-58342-2_8}&Les prédictions sont pour des cas limités. Le modèle est entraîné pour un type d'utilisateur spécifique.\\
\cite{10.1007/978-3-030-58342-2_8}&Les prédictions sont pour des cas limités. Le modèle est entraîné pour un type d'utilisateur spécifique.\\ 137 137
138 138 \cite{10.1007/978-3-030-58342-2_5}&Seulement une technique de sélection de solutions. Les données nécessaires pour le modèle sont complexes.\\
\cite{10.1007/978-3-030-58342-2_5}&Seulement une technique de sélection de solutions. Les données nécessaires pour le modèle sont complexes.\\ 139 139
140 140 \cite{YU2024123745}&Il n'y a pas de révision des cas dans la méthode d'imputation ni dans le modèle de classification fondé sur RàPC. Cela peut accroître le biais d'imputation et introduire des échantillons avec bruit.\\
\cite{YU2024123745}&Il n'y a pas de révision des cas dans la méthode d'imputation ni dans le modèle de classification fondé sur RàPC. Cela peut accroître le biais d'imputation et introduire des échantillons avec bruit.\\ 141 141
142 142 \cite{Sadeghi}&Le temps de calcul peut être très grand en fonction de la quantité de données associées, dû à l'étape d'entraînement du modèle HMM.\\
\cite{Sadeghi}&Le temps de calcul peut être très grand en fonction de la quantité de données associées, dû à l'étape d'entraînement du modèle HMM.\\ 143 143
144 144 \cite{8495930}&Le modèle a été validé avec peu de données. Les recommandations se basent seulement sur l'information des autres apprenants.\\
\cite{8495930}&Le modèle a été validé avec peu de données. Les recommandations se basent seulement sur l'information des autres apprenants.\\ 145 145
146 146 \cite{Obeid}&L'ontologie peut être limitée pour évaluer plusieurs cas inconnus ou imprévus. Il est nécessaire d'avoir une forte connaissance du domaine.\\
\cite{Obeid}&L'ontologie peut être limitée pour évaluer plusieurs cas inconnus ou imprévus. Il est nécessaire d'avoir une forte connaissance du domaine.\\ 147 147
148 148 \cite{skittou2024recommender}&Les règles de décision établies sont fixes et avec l'hybridation il peut y avoir de l'incertitude et l'imprécision.\\
\cite{skittou2024recommender}&Les règles de décision établies sont fixes et avec l'hybridation il peut y avoir de l'incertitude et l'imprécision.\\ 149 149
150 150 \end{tabular}
\end{tabular} 151 151 \caption{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC}
\caption{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC} 152 152 \label{tabArts2}
\label{tabArts2} 153 153 \end{table}
\end{table} 154 154
155 155 %\begin{figure}
%\begin{figure} 156 156 %\centering
%\centering 157 157 %\includegraphics[scale=0.4]{./Figures/ModCBR2.png}
%\includegraphics[scale=0.4]{./Figures/ModCBR2.png} 158 158 %\caption{Addition d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (\cite{10.1007/978-3-319-47096-2_11})}
%\caption{Addition d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (\cite{10.1007/978-3-319-47096-2_11})} 159 159 %\label{figMCBR2}
%\label{figMCBR2} 160 160 %\end{figure}
%\end{figure} 161
162
chapters/Conclusions.aux View file @ 4b1afa3
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\@writefile{toc}{\contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}\protected@file@percent } 3 3 \@writefile{toc}{\contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 4 4 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 5 5 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}\protected@file@percent }
\citation{CHEN2025104070} 7 7 \citation{CHEN2025104070}
\citation{busch2023teaching} 8 8 \citation{busch2023teaching}
\@writefile{toc}{\contentsline {section}{\numberline {8.2}Perspectives}{105}{section.8.2}\protected@file@percent } 9 9 \@writefile{toc}{\contentsline {section}{\numberline {8.2}Perspectives}{105}{section.8.2}\protected@file@percent }
\@setckpt{./chapters/Conclusions}{ 10 10 \@setckpt{./chapters/Conclusions}{
\setcounter{page}{106} 11 11 \setcounter{page}{106}
\setcounter{equation}{0} 12 12 \setcounter{equation}{0}
\setcounter{enumi}{0} 13 13 \setcounter{enumi}{0}
\setcounter{enumii}{0} 14 14 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 15 15 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 16 16 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 17 17 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 18 18 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 19 19 \setcounter{part}{3}
\setcounter{chapter}{8} 20 20 \setcounter{chapter}{8}
\setcounter{section}{2} 21 21 \setcounter{section}{2}
\setcounter{subsection}{0} 22 22 \setcounter{subsection}{0}
\setcounter{subsubsection}{0} 23 23 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 24 24 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 25 25 \setcounter{subparagraph}{0}
\setcounter{figure}{0} 26 26 \setcounter{figure}{0}
\setcounter{table}{0} 27 27 \setcounter{table}{0}
\setcounter{caption@flags}{2} 28 28 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 29 29 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 30 30 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 31 31 \setcounter{subtable}{0}
\setcounter{parentequation}{0} 32 32 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 33 33 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 34 34 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 35 35 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 36 36 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{1} 37 37 \setcounter{upm@format@section@sectionlevel}{1}
\setcounter{upm@fmt@savedcounter}{0} 38 38 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 39 39 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 40 40 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 41 41 \setcounter{upmdefinition}{0}
\setcounter{section@level}{1} 42 42 \setcounter{section@level}{1}
\setcounter{Item}{0} 43 43 \setcounter{Item}{0}
\setcounter{Hfootnote}{0} 44 44 \setcounter{Hfootnote}{0}
\setcounter{bookmark@seq@number}{92} 45 45 \setcounter{bookmark@seq@number}{90}
\setcounter{DefaultLines}{2} 46 46 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 47 47 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 48 48 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 49 49 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 50 50 \setcounter{float@type}{8}
\setcounter{algorithm}{1} 51 51 \setcounter{algorithm}{1}
\setcounter{ALG@line}{8} 52 52 \setcounter{ALG@line}{8}
\setcounter{ALG@rem}{8} 53 53 \setcounter{ALG@rem}{8}
\setcounter{ALG@nested}{0} 54 54 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 55 55 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 56 56 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 57 57 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 58 58 \setcounter{ALG@tmpcounter}{0}
} 59 59 }
60 60
chapters/EIAH.tex View file @ 4b1afa3
\chapter{Environnements Informatiques d'Apprentissage Humain} 1 1 \chapter{Environnements Informatiques d'Apprentissage Humain}
\chaptermark{CHAPITRE 3. \'ETAT DE L'ART (EIAH)} 2 2 \chaptermark{CHAPITRE 3. \'ETAT DE L'ART (EIAH)}
3 3
Ce chapitre présente les travaux sur les EIAH en lien avec le travail de cette thèse. Les EIAH référencés dans cet état de l'art sont classés selon le thème principal abordé. 4 4 Ce chapitre présente les travaux sur les EIAH en lien avec le travail de cette thèse. Les EIAH référencés dans cet état de l'art sont classés selon le thème principal abordé.
5 5
\section{L'Intelligence Artificielle} 6 6 \section{L'Intelligence Artificielle}
7 7
L'intelligence artificielle a été appliquée avec succès au domaine de l'éducation dans plusieurs écoles de différents pays et pour l'apprentissage de l'informatique, des langues étrangères et des sciences. \cite{ZHANG2021100025} référence un grand nombre de travaux sur la période de 1993-2020. Cet article montre que les besoins et contraintes des EIAH ne sont pas différentes selon l'age, le niveau culturel, ou le niveau éducatif des apprenants. Cet article montre également qu'il est possible d'adapter une stratégie d'apprentissage quelque soit l'apprenant et de maximiser le rendement et l'acquisition des connaissances grâce à différentes techniques d'intelligence artificielle. 8 8 L'intelligence artificielle a été appliquée avec succès au domaine de l'éducation dans plusieurs écoles de différents pays et pour l'apprentissage de l'informatique, des langues étrangères et des sciences. \cite{ZHANG2021100025} référence un grand nombre de travaux sur la période de 1993-2020. Cet article montre que les besoins et contraintes des EIAH ne sont pas différentes selon l'age, le niveau culturel, ou le niveau éducatif des apprenants. Cet article montre également qu'il est possible d'adapter une stratégie d'apprentissage quelque soit l'apprenant et de maximiser le rendement et l'acquisition des connaissances grâce à différentes techniques d'intelligence artificielle.
9 9
\cite{CHIU2023100118} présente une révision des travaux d'intelligence artificielle appliquée à l'éducation extraits des bases de données bibliographiques ERIC, WOS et Scopus sur la période 2012-2021. Ce travail est focalisé sur les tendances et les outils employés pour aider le processus d'apprentissage. Une classification des contributions de l'IA est faite, fondée sur 92 travaux scientifiques. Les contributions et l'utilité des outils d'IA implémentés dans les EIAH évalués dans cet article sont évaluées sur les quatre domaines suivants : l'apprentissage, l'enseignement, l'évaluation et l'administration. 10 10 \cite{CHIU2023100118} présente une révision des travaux d'intelligence artificielle appliquée à l'éducation extraits des bases de données bibliographiques ERIC, WOS et Scopus sur la période 2012-2021. Ce travail est focalisé sur les tendances et les outils employés pour aider le processus d'apprentissage. Une classification des contributions de l'IA est faite, fondée sur 92 travaux scientifiques. Les contributions et l'utilité des outils d'IA implémentés dans les EIAH évalués dans cet article sont évaluées sur les quatre domaines suivants : l'apprentissage, l'enseignement, l'évaluation et l'administration.
Pour l'apprentissage, l'IA est généralement utilisée pour attribuer des tâches en fonction des compétences individuelles, fournir des conversations homme-machine, analyser le travail des étudiants pour obtenir des commentaires et accroître l'adaptabilité et l'interactivité dans les environnements numériques. 11 11 Pour l'apprentissage, l'IA est généralement utilisée pour attribuer des tâches en fonction des compétences individuelles, fournir des conversations homme-machine, analyser le travail des étudiants pour obtenir des commentaires et accroître l'adaptabilité et l'interactivité dans les environnements numériques.
Pour l'enseignement, des stratégies d'enseignement adaptatives peuvent être appliquées pour améliorer la capacité des enseignants à enseigner et soutenir le développement professionnel des enseignants. 12 12 Pour l'enseignement, des stratégies d'enseignement adaptatives peuvent être appliquées pour améliorer la capacité des enseignants à enseigner et soutenir le développement professionnel des enseignants.
Dans le domaine de l'évaluation, l'IA peut fournir une notation automatique et prédire les performances des élèves. 13 13 Dans le domaine de l'évaluation, l'IA peut fournir une notation automatique et prédire les performances des élèves.
Enfin, dans le domaine de l'administration, l'IA contribue à améliorer la performance des plateformes de gestion, à soutenir la prise de décision pédagogique et à fournir des services personnalisés. 14 14 Enfin, dans le domaine de l'administration, l'IA contribue à améliorer la performance des plateformes de gestion, à soutenir la prise de décision pédagogique et à fournir des services personnalisés.
Cet article met également en lumière les lacunes suivantes de l'IA : 15 15 Cet article met également en lumière les lacunes suivantes de l'IA :
\begin{itemize} 16 16 \begin{itemize}
\item Les ressources recommandées par les plateformes d'apprentissage personnalisées sont trop homogènes, 17 17 \item Les ressources recommandées par les plateformes d'apprentissage personnalisées sont trop homogènes,
\item les données nécessaires pour les modèles d'IA sont très spécifiques, 18 18 \item les données nécessaires pour les modèles d'IA sont très spécifiques,
\item le lien entre les technologies et l'enseignement n'est pas bien clair. En effet, la plupart des travaux sont conçus pour un domaine ou un objectif très spécifique difficilement généralisable, 19 19 \item le lien entre les technologies et l'enseignement n'est pas bien clair. En effet, la plupart des travaux sont conçus pour un domaine ou un objectif très spécifique difficilement généralisable,
\item l'inégalité éducative, car les technologies ne suscitent pas la motivation chez tous les élèves. De plus, l'intelligence artificielle peut parfois engendrer des attitudes négatives et s'avérer difficile à maîtriser et à intégrer efficacement dans les cours. 20 20 \item l'inégalité éducative, car les technologies ne suscitent pas la motivation chez tous les élèves. De plus, l'intelligence artificielle peut parfois engendrer des attitudes négatives et s'avérer difficile à maîtriser et à intégrer efficacement dans les cours.
%\textcolor{red}{revoir cette phrase}. 21 21 %\textcolor{red}{revoir cette phrase}.
\end{itemize} 22 22 \end{itemize}
23 23
Les techniques d'IA peuvent aussi aider à prendre des décisions stratégiques visant des objectifs à longue échéance comme le montre le travail de \cite{Robertson2014ARO}. Les jeux de stratégie présentent en effet plusieurs particularités singulières. Ils continent plusieurs règles et des environnements contraints. Ils nécessitent de mettre en œuvre des actions et réactions en temps réel. Ils intègrent des aléas et des informations cachées. Les techniques principales identifiées et implémentées dans ces jeux de stratégie sont l'apprentissage par renforcement, les modèles bayésiens, la recherche d'information dans une structure de type arbre, le raisonnement à partir de cas, les réseaux de neurones et les algorithmes évolutifs. Il est également important de noter que la combinaison de ces techniques permet dans certains cas d'améliorer le comportement global des algorithmes et d'obtenir de meilleures réponses. 24 24 Les techniques d'IA peuvent aussi aider à prendre des décisions stratégiques visant des objectifs à longue échéance comme le montre le travail de \cite{Robertson2014ARO}. Les jeux de stratégie présentent en effet plusieurs particularités singulières. Ils continent plusieurs règles et des environnements contraints. Ils nécessitent de mettre en œuvre des actions et réactions en temps réel. Ils intègrent des aléas et des informations cachées. Les techniques principales identifiées et implémentées dans ces jeux de stratégie sont l'apprentissage par renforcement, les modèles bayésiens, la recherche d'information dans une structure de type arbre, le raisonnement à partir de cas, les réseaux de neurones et les algorithmes évolutifs. Il est également important de noter que la combinaison de ces techniques permet dans certains cas d'améliorer le comportement global des algorithmes et d'obtenir de meilleures réponses.
25 25
\section{Systèmes de recommandation dans les EIAH} 26 26 \section{Systèmes de recommandation dans les EIAH}
27 27
Des systèmes de recommandation sont régulièrement intégrés aux EIAH. 28 28 Des systèmes de recommandation sont régulièrement intégrés aux EIAH.
Ils permettent en effet de tenir compte des exigences, des besoins, du profil, des compétences, des intérêts et de l'évolution de l'apprenant pour s'adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise de concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types \cite{MUANGPRATHUB2020e05227} : 29 29 Ils permettent en effet de tenir compte des exigences, des besoins, du profil, des compétences, des intérêts et de l'évolution de l'apprenant pour s'adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise de concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types \cite{MUANGPRATHUB2020e05227} :
\begin{itemize} 30 30 \begin{itemize}
\item l'adaptation de la présentation qui montre aux apprenants les ressources en concordance avec leurs faiblesses et 31 31 \item l'adaptation de la présentation qui montre aux apprenants les ressources en concordance avec leurs faiblesses et
\item l'adaptation du parcours qui change la structure du cours en fonction du niveau et style d'apprentissage de chaque apprenant. 32 32 \item l'adaptation du parcours qui change la structure du cours en fonction du niveau et style d'apprentissage de chaque apprenant.
\end{itemize} 33 33 \end{itemize}
Ces systèmes montrent des effets positifs pour les apprenants comme le révèle le travail de \cite{HUANG2023104684} qui utilise l'IA pour personnaliser des recommandations de ressources vidéo et ainsi aider et motiver les apprenants. L'évolution des résultats entre les tests préliminaires et ceux réalisés après la finalisation du cours des groupes ayant suivi les cours avec et sans système de recommandation démontre cet effet positif. La figure \ref{figArch} montre l'architecture du système qui utilise l'intelligence artificielle dans différentes étapes du processus avec les données de l'apprenant sous la supervision et contrôle de l'enseignant. 34 34 Ces systèmes montrent des effets positifs pour les apprenants comme le révèle le travail de \cite{HUANG2023104684} qui utilise l'IA pour personnaliser des recommandations de ressources vidéo et ainsi aider et motiver les apprenants. L'évolution des résultats entre les tests préliminaires et ceux réalisés après la finalisation du cours des groupes ayant suivi les cours avec et sans système de recommandation démontre cet effet positif. La figure \ref{figArch} montre l'architecture du système qui utilise l'intelligence artificielle dans différentes étapes du processus avec les données de l'apprenant sous la supervision et contrôle de l'enseignant.
35 35
\begin{figure} 36 36 \begin{figure}
\centering 37 37 \centering
\includegraphics[width=\textwidth]{./Figures/architecture.png} 38 38 \includegraphics[width=\textwidth]{./Figures/architecture.png}
\caption{Traduction de l'architecture du système de recommandation proposé dans \cite{HUANG2023104684}} 39 39 \caption{Traduction de l'architecture du système de recommandation proposé dans \cite{HUANG2023104684}}
\label{figArch} 40 40 \label{figArch}
\end{figure} 41 41 \end{figure}
42 42
Le travail de \cite{pmlr-v108-seznec20a} propose un modèle générique de recommandation qui peut être utilisé dans les systèmes de recommandation de produits ou les systèmes d'apprentissage. Ce modèle est fondé sur l'algorithme par renforcement UCB (\textit{Upper Confidence Bound}) qui permet de trouver une solution approchée à une variante du problème \textit{Bandit manchot} non stationnaire (MAB, présenté dans le chapitre 7 de ce manuscrit), où les récompenses de chaque action diminuent progressivement après chaque utilisation. Pour valider le modèle, une comparaison avec trois autres algorithmes a été menée en considérant une base de données réelle. La performance du système a été démontrée en se fondant sur la moyenne accumulée du regret et la moyenne de la récompense accumulée. 43 43 Le travail de \cite{pmlr-v108-seznec20a} propose un modèle générique de recommandation qui peut être utilisé dans les systèmes de recommandation de produits ou les systèmes d'apprentissage. Ce modèle est fondé sur l'algorithme par renforcement UCB (\textit{Upper Confidence Bound}) qui permet de trouver une solution approchée à une variante du problème \textit{Bandit manchot} non stationnaire (MAB, présenté dans le chapitre \ref{chap:contexte} de ce manuscrit), où les récompenses de chaque action diminuent progressivement après chaque utilisation. Pour valider le modèle, une comparaison avec trois autres algorithmes a été menée en considérant une base de données réelle. La performance du système a été démontrée en se fondant sur la moyenne accumulée du regret et la moyenne de la récompense accumulée.
44 44
Aussi, \cite{INGKAVARA2022100086} met en évidence que les technologies et les systèmes de recommandation peuvent s'adapter à différents besoins et aspirations et qu'ils peuvent également favoriser l'apprentissage auto-régulé. Ce type d'apprentissage aide les apprenants à acquérir les compétences pour diminuer les délais de réponse et devenir plus performants. Ce type d'apprentissage permet de définir des objectifs variables dans un environnement structuré, et également d'adapter le temps nécessaire à l'acquisition et la maîtrise de connaissances et de compétences. De plus, avec les systèmes de recommandation est possible d'avoir accès à des ressources et ainsi constituer un excellent outil pour le renforcement des connaissances acquises. 45 45 Aussi, \cite{INGKAVARA2022100086} met en évidence que les technologies et les systèmes de recommandation peuvent s'adapter à différents besoins et aspirations et qu'ils peuvent également favoriser l'apprentissage auto-régulé. Ce type d'apprentissage aide les apprenants à acquérir les compétences pour diminuer les délais de réponse et devenir plus performants. Ce type d'apprentissage permet de définir des objectifs variables dans un environnement structuré, et également d'adapter le temps nécessaire à l'acquisition et la maîtrise de connaissances et de compétences. De plus, avec les systèmes de recommandation, il est possible d'avoir accès à des ressources et ainsi de construire un excellent outil pour le renforcement des connaissances acquises.
46 46
Dans le travail de \cite{LALITHA2020583}, l'IA est utilisée pour l'apprentissage adaptatif afin de suggérer des ressources d'étude. Le système proposé par ces auteurs intègre un module de personnalisation qui collecte l'information de l'apprenant et ses exigences, un module de classification qui compare l'information avec d'autres profils en utilisant l'algorithme KNN et un module de recommandation chargé d'identifier les ressources communes entre les profils afin d'en extraire des informations complémentaires provenant d'Internet. Ce système inclut également un algorithme \textit{Random Forest} pour améliorer le processus d'apprentissage du nouvel apprenant. Les techniques et les stratégies sont très variées mais l'objectif est de s'adapter aux apprenants et à leurs besoins. Dans \cite{ZHAO2023118535} les données des apprenants sont collectées et classées dans des groupes présentant des caractéristiques similaires. Ensuite, la méthode d'analyse par enveloppement des données (DEA) permet d'identifier les besoins spécifiques de chaque groupe et ainsi proposer un parcours d'apprentissage personnalisé. 47 47 Dans le travail de \cite{LALITHA2020583}, l'IA est utilisée pour l'apprentissage adaptatif afin de suggérer des ressources d'étude. Le système proposé par ces auteurs intègre un module de personnalisation qui collecte l'information de l'apprenant et ses exigences, un module de classification qui compare l'information avec d'autres profils en utilisant l'algorithme KNN et un module de recommandation chargé d'identifier les ressources communes entre les profils afin d'en extraire des informations complémentaires provenant d'Internet. Ce système inclut également un algorithme \textit{Random Forest} pour améliorer le processus d'apprentissage du nouvel apprenant. Les techniques et les stratégies sont très variées mais l'objectif est de s'adapter aux apprenants et à leurs besoins. Dans \cite{ZHAO2023118535} les données des apprenants sont collectées et classées dans des groupes présentant des caractéristiques similaires. Ensuite, la méthode d'analyse par enveloppement des données (DEA) permet d'identifier les besoins spécifiques de chaque groupe et ainsi proposer un parcours d'apprentissage personnalisé.
48 48
La représentation des données des enseignants, des apprenants et l'environnement sont des aspects particulièrement importants à considérer dans l'implémentation de ces systèmes de recommandation. Ces aspects influencent en effet les performances globales des EIAH dans lesquels ils sont intégrés. La proposition de \cite{SU2022109547} consiste à stocker les données des apprenants dans deux graphes évolutifs qui contiennent les relations entre les questions et les réponses correctes ainsi que les réponses données par les apprenants. Ces informations et relations permettent de construire un graphe global propre à chaque apprenant en donnant une information sur son état cognitif et ainsi de personnaliser son parcours. Dans \cite{MUANGPRATHUB2020e05227} les auteurs définissent dans leur EIAH trois ensembles de concepts : 49 49 La représentation des données des enseignants, des apprenants et l'environnement sont des aspects particulièrement importants à considérer dans l'implémentation de ces systèmes de recommandation. Ces aspects influencent en effet les performances globales des EIAH dans lesquels ils sont intégrés. La proposition de \cite{SU2022109547} consiste à stocker les données des apprenants dans deux graphes évolutifs qui contiennent les relations entre les questions et les réponses correctes ainsi que les réponses données par les apprenants. Ces informations et relations permettent de construire un graphe global propre à chaque apprenant en donnant une information sur son état cognitif et ainsi de personnaliser son parcours. Dans \cite{MUANGPRATHUB2020e05227} les auteurs définissent dans leur EIAH trois ensembles de concepts :
\begin{itemize} 50 50 \begin{itemize}
\item les objets (G), 51 51 \item les objets (G),
\item les attributs (M) et 52 52 \item les attributs (M) et
\item les relations entre G et M. 53 53 \item les relations entre G et M.
\end{itemize} 54 54 \end{itemize}
55 55
L'originalité de ce travail consiste à analyser ces concepts en suivant l'approche du FCA (\textit{Formal Context Analysis}). Ce type de représentation permet de mettre en relation les ressources d'étude, les questions et les sujets. En conséquence, si un apprenant étudie un sujet $S_1$ et si une règle relie $S_1$ au sujet $S_4$ ou la question $Q_{3,4}$, alors le système peut suggérer l'étude des ressources d'étude associées au sujet $S_4$ ou aux questions associées par les règles. Par ailleurs, cet algorithme se fonde sur une structure du cours prédéfinie pour recommander un parcours exhaustif d'apprentissage. 56 56 L'originalité de ce travail consiste à analyser ces concepts en suivant l'approche du FCA (\textit{Formal Context Analysis}). Ce type de représentation permet de mettre en relation les ressources d'étude, les questions et les sujets. En conséquence, si un apprenant étudie un sujet $S_1$ et si une règle relie $S_1$ au sujet $S_4$ ou la question $Q_{3,4}$, alors le système peut suggérer l'étude des ressources d'étude associées au sujet $S_4$ ou aux questions associées par les règles. Par ailleurs, cet algorithme se fonde sur une structure du cours prédéfinie pour recommander un parcours exhaustif d'apprentissage.
57 57
\cite{Zhou2021} propose un système de recommandation pour personnaliser des exercices pour l'apprentissage de l'anglais. Le système décrit contient un module principal qui représente les apprenants comme des vecteurs selon le modèle DINA où sont stockés les points des connaissances acquises. Le vecteur de connaissances $K$ est de dimension $n$ ($K=\{k_1, k_2, ..., k_n\}$) où chaque dimension correspond à un point de connaissance. Ainsi, $k_i=1$ signifie que l'apprenant maîtrise le point de connaissance $k_i$. A contrario, $k_i=0$ signifie que l'apprenant doit étudier le point de connaissance $k_i$ car car non acquise. La recommandation des questions proposées par le système se sert par ailleurs d'une librairie de ressources associées à chacune des questions possibles et permettant à l'apprenant de renforcer son apprentissage et d'avancer dans le programme du cours. 58 58 \cite{Zhou2021} propose un système de recommandation pour personnaliser des exercices pour l'apprentissage de l'anglais. Le système décrit contient un module principal qui représente les apprenants comme des vecteurs selon le modèle DINA où sont stockés les points des connaissances acquises. Le vecteur de connaissances $K$ est de dimension $n$ ($K=\{k_1, k_2, ..., k_n\}$) où chaque dimension correspond à un point de connaissance. Ainsi, $k_i=1$ signifie que l'apprenant maîtrise le point de connaissance $k_i$. A contrario, $k_i=0$ signifie que l'apprenant doit étudier le point de connaissance $k_i$ car car non acquise. La recommandation des questions proposées par le système se sert par ailleurs d'une librairie de ressources associées à chacune des questions possibles et permettant à l'apprenant de renforcer son apprentissage et d'avancer dans le programme du cours.
59 59
Certains travaux de recommandation et de personnalisation considèrent des variables complémentaires aux notes. C'est le cas de l'EIAH proposé par \cite{EZALDEEN2022100700}, qui lie l'analyse du comportement de l'apprenant à une analyse sémantique de son propre profil. La première étape consiste à collecter les données nécessaires pour créer un profil de l'apprenant. Fort de ce profil complet, des associations sont faites entre l'apprenant et un groupe de catégories d'apprentissages prédéfinies. Les apprentissages sont regroupés selon ses préférences et les données historiques. Puis les concepts associés pour les catégories sont recherchés et permettent ainsi de générer un guide pour obtenir des ressources internet qu'il est possible de recommander. Le système est divisé en quatre niveaux représentés sur la figure \figref{figLevels} où chacun des niveaux est chargé d'une tâche spécifique. Les résultats d'un niveau sont envoyés au niveau suivant jusqu'à proposer des recommandations personnalisées pour l'apprenant. 60 60 Certains travaux de recommandation et de personnalisation considèrent des variables complémentaires aux notes. C'est le cas de l'EIAH proposé par \cite{EZALDEEN2022100700}, qui lie l'analyse du comportement de l'apprenant à une analyse sémantique de son propre profil. La première étape consiste à collecter les données nécessaires pour créer un profil de l'apprenant. Fort de ce profil complet, des associations sont faites entre l'apprenant et un groupe de catégories d'apprentissages prédéfinies. Les apprentissages sont regroupés selon ses préférences et les données historiques. Puis les concepts associés pour les catégories sont recherchés et permettent ainsi de générer un guide pour obtenir des ressources internet qu'il est possible de recommander. Le système est divisé en quatre niveaux représentés sur la figure \figref{figLevels} où chacun des niveaux est chargé d'une tâche spécifique. Les résultats d'un niveau sont envoyés au niveau suivant jusqu'à proposer des recommandations personnalisées pour l'apprenant.
61 61
\mfigure[!ht]{width=\textwidth}{./Figures/ELearningLevels.png}{Traduction des niveaux du système de recommandation dans \cite{EZALDEEN2022100700}}{figLevels} 62 62 \mfigure[!ht]{width=\textwidth}{./Figures/ELearningLevels.png}{Traduction des niveaux du système de recommandation dans \cite{EZALDEEN2022100700}}{figLevels}
63 63
%\begin{figure}[!ht] 64 64 %\begin{figure}[!ht]
%\centering 65 65 %\centering
%\includegraphics[scale=0.5]{./Figures/ELearningLevels.png} 66 66 %\includegraphics[scale=0.5]{./Figures/ELearningLevels.png}
%\caption{Niveaux du système de recommandation dans le travail \cite{EZALDEEN2022100700}} 67 67 %\caption{Niveaux du système de recommandation dans le travail \cite{EZALDEEN2022100700}}
%\label{figLevels} 68 68 %\label{figLevels}
%\end{figure} 69 69 %\end{figure}
70 70
Le tableau \ref{tabArts} présente un récapitulatif des articles analysés dans l'état de l'art des EIAH. Les articles apparaissent dans l'ordre de citation dans le chapitre. Les limites décrites correspondent au temps de calcul, quantité de données d'entraînement, complexité de définitions ou des règles et la quantité de variables subjectives. 71 71 Le tableau \ref{tabArts} présente un récapitulatif des articles analysés dans l'état de l'art des EIAH. Les articles apparaissent dans l'ordre de citation dans le chapitre. Les limites décrites correspondent au temps de calcul, quantité de données d'entraînement, complexité de définitions ou des règles et la quantité de variables subjectives.
72 72
Une limitation générale que présentent les algorithmes d'IA dans les EIAH est que ce type d'algorithmes ne permet pas d'oublier l'information avec laquelle ils ont été entraînés. Cette propriété est parfois nécessaire pour les EIAH quand un dysfonctionnement du système se produit, pour la réévaluation d'un apprenant ou la restructuration d'un cours. Par ailleurs, les représentations et algorithmes peuvent changer et évoluer. Aujourd'hui il existe encore beaucoup de potentiel pour développer les capacités de calcul et d'adaptation. 73 73 Une limitation générale que présentent les algorithmes d'IA dans les EIAH est que ce type d'algorithmes ne permet pas d'oublier l'information avec laquelle ils ont été entraînés. Cette propriété est parfois nécessaire pour les EIAH quand un dysfonctionnement du système se produit, pour la réévaluation d'un apprenant ou la restructuration d'un cours. Par ailleurs, les représentations et algorithmes peuvent changer et évoluer. Aujourd'hui il existe encore beaucoup de potentiel pour développer les capacités de calcul et d'adaptation.
74 74
\begin{table} 75 75 \begin{table}
\footnotesize 76 76 \footnotesize
\begin{tabular}{p{4.2cm}p{10cm}} 77 77 \begin{tabular}{p{4.2cm}p{10cm}}
Référence&Limites\\ 78 78 Référence&Limites\\
\hline 79 79 \hline
\cite{ZHANG2021100025}&Niveau global d'application de EIAH. Analyse des effets de l'IA\\ 80 80 \cite{ZHANG2021100025}&Niveau global d'application de EIAH. Analyse des effets de l'IA\\
\cite{CHIU2023100118}&Aspects non cognitifs en IA. Motivation des apprenants\\ 81 81 \cite{CHIU2023100118}&Aspects non cognitifs en IA. Motivation des apprenants\\
\cite{Robertson2014ARO}&Peu de test. Pas de standard d'évaluation\\ 82 82 \cite{Robertson2014ARO}&Peu de test. Pas de standard d'évaluation\\
\cite{HUANG2023104684}&Recommandation en fonction de la motivation seulement. N'est pas général pour tous les apprenants\\ 83 83 \cite{HUANG2023104684}&Recommandation en fonction de la motivation seulement. N'est pas général pour tous les apprenants\\
\cite{pmlr-v108-seznec20a}&Le modèle n'a pas été testé avec données d'étudiants. UCB prend beaucoup de temps pour explorer les alternatives\\ 84 84 \cite{pmlr-v108-seznec20a}&Le modèle n'a pas été testé avec données d'étudiants. UCB prend beaucoup de temps pour explorer les alternatives\\
\cite{INGKAVARA2022100086}&Modèle très complexe. Définition de constantes subjectif et beaucoup de variables.\\ 85 85 \cite{INGKAVARA2022100086}&Modèle très complexe. Définition de constantes subjectif et beaucoup de variables.\\
\cite{LALITHA2020583}&A besoin de beaucoup de données pour entraînement. Ne marche pas dans le cas 'cold-start', n'est pas totalement automatisé\\ 86 86 \cite{LALITHA2020583}&A besoin de beaucoup de données pour entraînement. Ne marche pas dans le cas '\textit{cold-start}', n'est pas totalement automatisé\\
\cite{SU2022109547}&Estimation de la connaissance de façon subjective. Une étape d'entraînement est nécessaire\\ 87 87 \cite{SU2022109547}&Estimation de la connaissance de façon subjective. Une étape d'entraînement est nécessaire\\
\cite{MUANGPRATHUB2020e05227}&Structure des règles complexe. Définition de la connaissance de base complexe\\ 88 88 \cite{MUANGPRATHUB2020e05227}&Structure des règles complexe. Définition de la connaissance de base complexe\\
\cite{Zhou2021}&Utilisation d'un filtre collaboratif sans stratification. Utilisation d'une seule métrique de distance\\ 89 89 \cite{Zhou2021}&Utilisation d'un filtre collaboratif sans stratification. Utilisation d'une seule métrique de distance\\
\cite{EZALDEEN2022100700}&Il n'y a pas de comparaison avec d'autres modèles différents de CNN. Beaucoup de variables à valeurs subjectives\\ 90 90 \cite{EZALDEEN2022100700}&Il n'y a pas de comparaison avec d'autres modèles différents de CNN. Beaucoup de variables à valeurs subjectives\\
91 91
\end{tabular} 92 92 \end{tabular}
\caption{Tableau de synthèse des articles analysés dans l'état de l'art des EIAH} 93 93 \caption{Tableau de synthèse des articles analysés dans l'état de l'art des EIAH}
\label{tabArts} 94 94 \label{tabArts}
\end{table} 95 95 \end{table}
96
chapters/ESCBR.aux View file @ 4b1afa3
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{10.1007/978-3-031-63646-2_11} 3 3 \citation{10.1007/978-3-031-63646-2_11}
\citation{soto6} 4 4 \citation{soto6}
\citation{UCI} 5 5 \citation{UCI}
\@writefile{toc}{\contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 7 7 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 8 8 \@writefile{lot}{\addvspace {10\p@ }}
\newlabel{ChapESCBR}{{6}{51}{Le raisonnement à partir de cas (RàPC) pour la régression}{chapter.6}{}} 9 9 \newlabel{ChapESCBR}{{6}{51}{Le raisonnement à partir de cas (RàPC) pour la régression}{chapter.6}{}}
\@writefile{toc}{\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}\protected@file@percent } 10 10 \@writefile{toc}{\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}\protected@file@percent }
\citation{BAKUROV2021100913} 11 11 \citation{BAKUROV2021100913}
\citation{Liang} 12 12 \citation{Liang}
\citation{cmc.2023.033417} 13 13 \citation{cmc.2023.033417}
\citation{10.3389/fgene.2021.600040} 14 14 \citation{10.3389/fgene.2021.600040}
\citation{KAMALI2023110242} 15 15 \citation{KAMALI2023110242}
\citation{DIDDEN2023338} 16 16 \citation{DIDDEN2023338}
\citation{HIPOLITO2023103510} 17 17 \citation{HIPOLITO2023103510}
\citation{ZHANG2023110564} 18 18 \citation{ZHANG2023110564}
\@writefile{toc}{\contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}\protected@file@percent } 19 19 \@writefile{toc}{\contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.1}Algorithme Proposé}{53}{subsection.6.2.1}\protected@file@percent } 20 20 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.1}Algorithme Proposé}{53}{subsection.6.2.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.1}{\ignorespaces Les deux cycles proposés pour le RàPC\relax }}{53}{figure.caption.22}\protected@file@percent } 21 21 \@writefile{lof}{\contentsline {figure}{\numberline {6.1}{\ignorespaces Les deux cycles proposés pour le RàPC\relax }}{53}{figure.caption.22}\protected@file@percent }
\newlabel{figNCBR1}{{6.1}{53}{Les deux cycles proposés pour le RàPC\relax }{figure.caption.22}{}} 22 22 \newlabel{figNCBR1}{{6.1}{53}{Les deux cycles proposés pour le RàPC\relax }{figure.caption.22}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.2}{\ignorespaces Flux du \textit {Stacking} RàPC\relax }}{54}{figure.caption.23}\protected@file@percent } 23 23 \@writefile{lof}{\contentsline {figure}{\numberline {6.2}{\ignorespaces Flux du \textit {Stacking} RàPC\relax }}{54}{figure.caption.23}\protected@file@percent }
\newlabel{figFlowCBR0}{{6.2}{54}{Flux du \textit {Stacking} RàPC\relax }{figure.caption.23}{}} 24 24 \newlabel{figFlowCBR0}{{6.2}{54}{Flux du \textit {Stacking} RàPC\relax }{figure.caption.23}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}\protected@file@percent } 25 25 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {6.1}{\ignorespaces Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }}{55}{table.caption.24}\protected@file@percent } 26 26 \@writefile{lot}{\contentsline {table}{\numberline {6.1}{\ignorespaces Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }}{55}{table.caption.24}\protected@file@percent }
\newlabel{tabVarPar}{{6.1}{55}{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.24}{}} 27 27 \newlabel{tabVarPar}{{6.1}{55}{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.24}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}\protected@file@percent } 28 28 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}\protected@file@percent }
29 \newlabel{Ssec:ReutiliserESCBR}{{6.2.1.2}{55}{Réutiliser}{subsubsection.6.2.1.2}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.3}{\ignorespaces \textit {Stacking} pour chercher les plus proches voisins\relax }}{56}{figure.caption.25}\protected@file@percent } 29 30 \@writefile{lof}{\contentsline {figure}{\numberline {6.3}{\ignorespaces \textit {Stacking} pour chercher les plus proches voisins\relax }}{56}{figure.caption.25}\protected@file@percent }
\newlabel{figSta1}{{6.3}{56}{\textit {Stacking} pour chercher les plus proches voisins\relax }{figure.caption.25}{}} 30 31 \newlabel{figSta1}{{6.3}{56}{\textit {Stacking} pour chercher les plus proches voisins\relax }{figure.caption.25}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.4}{\ignorespaces Représentation des solutions connues et générées\relax }}{56}{figure.caption.26}\protected@file@percent } 31 32 \@writefile{lof}{\contentsline {figure}{\numberline {6.4}{\ignorespaces Représentation des solutions connues et générées\relax }}{56}{figure.caption.26}\protected@file@percent }
\newlabel{figSolRep}{{6.4}{56}{Représentation des solutions connues et générées\relax }{figure.caption.26}{}} 32 33 \newlabel{figSolRep}{{6.4}{56}{Représentation des solutions connues et générées\relax }{figure.caption.26}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.5}{\ignorespaces Génération et vérification automatique des solutions\relax }}{57}{figure.caption.27}\protected@file@percent } 33 34 \@writefile{lof}{\contentsline {figure}{\numberline {6.5}{\ignorespaces Génération et vérification automatique des solutions\relax }}{57}{figure.caption.27}\protected@file@percent }
\newlabel{figAuto}{{6.5}{57}{Génération et vérification automatique des solutions\relax }{figure.caption.27}{}} 34 35 \newlabel{figAuto}{{6.5}{57}{Génération et vérification automatique des solutions\relax }{figure.caption.27}{}}
\newlabel{gen00}{{6.1}{57}{Réutiliser}{equation.6.2.1}{}} 35 36 \newlabel{gen00}{{6.1}{57}{Réutiliser}{equation.6.2.1}{}}
\newlabel{gen01}{{6.2}{57}{Réutiliser}{equation.6.2.2}{}} 36 37 \newlabel{gen01}{{6.2}{57}{Réutiliser}{equation.6.2.2}{}}
\newlabel{gen2}{{6.3}{57}{Réutiliser}{equation.6.2.3}{}} 37 38 \newlabel{gen2}{{6.3}{57}{Réutiliser}{equation.6.2.3}{}}
\newlabel{eqgen3}{{6.4}{58}{Réutiliser}{equation.6.2.4}{}} 38 39 \newlabel{eqgen3}{{6.4}{58}{Réutiliser}{equation.6.2.4}{}}
\newlabel{eqgen4}{{6.5}{58}{Réutiliser}{equation.6.2.5}{}} 39 40 \newlabel{eqgen4}{{6.5}{58}{Réutiliser}{equation.6.2.5}{}}
\newlabel{eqgen5}{{6.6}{58}{Réutiliser}{equation.6.2.6}{}} 40 41 \newlabel{eqgen5}{{6.6}{58}{Réutiliser}{equation.6.2.6}{}}
\newlabel{eqgen6}{{6.7}{58}{Réutiliser}{equation.6.2.7}{}} 41 42 \newlabel{eqgen6}{{6.7}{58}{Réutiliser}{equation.6.2.7}{}}
\newlabel{eqgen7}{{6.8}{58}{Réutiliser}{equation.6.2.8}{}} 42 43 \newlabel{eqgen7}{{6.8}{58}{Réutiliser}{equation.6.2.8}{}}
\newlabel{eqma1}{{6.9}{58}{Réutiliser}{equation.6.2.9}{}} 43 44 \newlabel{eqma1}{{6.9}{58}{Réutiliser}{equation.6.2.9}{}}
\citation{doi:10.1137/23M1592420} 44 45 \citation{doi:10.1137/23M1592420}
\@writefile{lof}{\contentsline {figure}{\numberline {6.6}{\ignorespaces \textit {Stacking} pour la génération de solutions\relax }}{59}{figure.caption.28}\protected@file@percent } 45 46 \@writefile{lof}{\contentsline {figure}{\numberline {6.6}{\ignorespaces \textit {Stacking} pour la génération de solutions\relax }}{59}{figure.caption.28}\protected@file@percent }
\newlabel{figSta2}{{6.6}{59}{\textit {Stacking} pour la génération de solutions\relax }{figure.caption.28}{}} 46 47 \newlabel{figSta2}{{6.6}{59}{\textit {Stacking} pour la génération de solutions\relax }{figure.caption.28}{}}
\newlabel{eqma2}{{6.10}{59}{Réutiliser}{equation.6.2.10}{}} 47 48 \newlabel{eqma2}{{6.10}{59}{Réutiliser}{equation.6.2.10}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}\protected@file@percent } 48 49 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}\protected@file@percent }
\newlabel{eqOpt0}{{6.11}{60}{Révision}{equation.6.2.11}{}} 49 50 \newlabel{eqOpt0}{{6.11}{60}{Révision}{equation.6.2.11}{}}
\newlabel{eqOpt}{{6.12}{60}{Révision}{equation.6.2.12}{}} 50 51 \newlabel{eqOpt}{{6.12}{60}{Révision}{equation.6.2.12}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.7}{\ignorespaces Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }}{60}{figure.caption.29}\protected@file@percent } 51 52 \@writefile{lof}{\contentsline {figure}{\numberline {6.7}{\ignorespaces Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }}{60}{figure.caption.29}\protected@file@percent }
\newlabel{fig:FW}{{6.7}{60}{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }{figure.caption.29}{}} 52 53 \newlabel{fig:FW}{{6.7}{60}{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }{figure.caption.29}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent } 53 54 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}\protected@file@percent } 54 55 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de données évalués\relax }}{61}{table.caption.30}\protected@file@percent } 55 56 \@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de données évalués\relax }}{61}{table.caption.30}\protected@file@percent }
\newlabel{tabBases2}{{6.2}{61}{Description des jeux de données évalués\relax }{table.caption.30}{}} 56 57 \newlabel{tabBases2}{{6.2}{61}{Description des jeux de données évalués\relax }{table.caption.30}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes évalués\relax }}{61}{table.caption.31}\protected@file@percent } 57 58 \@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes évalués\relax }}{61}{table.caption.31}\protected@file@percent }
\newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes évalués\relax }{table.caption.31}{}} 58 59 \newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes évalués\relax }{table.caption.31}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{61}{table.caption.32}\protected@file@percent } 59 60 \@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{61}{table.caption.32}\protected@file@percent }
\newlabel{tabRes1_2}{{6.4}{61}{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.32}{}} 60 61 \newlabel{tabRes1_2}{{6.4}{61}{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.32}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{62}{table.caption.33}\protected@file@percent } 61 62 \@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{62}{table.caption.33}\protected@file@percent }
\newlabel{tabRes2_2}{{6.5}{62}{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.33}{}} 62 63 \newlabel{tabRes2_2}{{6.5}{62}{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.33}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}\protected@file@percent } 63 64 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.8}{\ignorespaces Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }}{63}{figure.caption.34}\protected@file@percent } 64 65 \@writefile{lof}{\contentsline {figure}{\numberline {6.8}{\ignorespaces Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }}{63}{figure.caption.34}\protected@file@percent }
\newlabel{figBox2}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }{figure.caption.34}{}} 65 66 \newlabel{figBox2}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }{figure.caption.34}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}\protected@file@percent } 66 67 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}\protected@file@percent }
\@writefile{toc}{\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}\protected@file@percent } 67 68 \@writefile{toc}{\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {6.3.1}Algorithme Proposé}{64}{subsection.6.3.1}\protected@file@percent } 68 69 \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.1}Algorithme Proposé}{64}{subsection.6.3.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.9}{\ignorespaces Deux cycles du système ESCBR-SMA proposé\relax }}{64}{figure.caption.35}\protected@file@percent } 69 70 \@writefile{lof}{\contentsline {figure}{\numberline {6.9}{\ignorespaces Deux cycles du système ESCBR-SMA proposé\relax }}{64}{figure.caption.35}\protected@file@percent }
\newlabel{figNCBR}{{6.9}{64}{Deux cycles du système ESCBR-SMA proposé\relax }{figure.caption.35}{}} 70 71 \newlabel{figNCBR}{{6.9}{64}{Deux cycles du système ESCBR-SMA proposé\relax }{figure.caption.35}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.6}{\ignorespaces Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }}{65}{table.caption.37}\protected@file@percent } 71 72 \@writefile{lot}{\contentsline {table}{\numberline {6.6}{\ignorespaces Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }}{65}{table.caption.37}\protected@file@percent }
\newlabel{tabVarPar2}{{6.6}{65}{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.37}{}} 72 73 \newlabel{tabVarPar2}{{6.6}{65}{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.37}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}\protected@file@percent } 73 74 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes suivis par ESCBR-SMA}{65}{subsubsection.6.3.1.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.10}{\ignorespaces Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }}{66}{figure.caption.36}\protected@file@percent } 74 75 \@writefile{lof}{\contentsline {figure}{\numberline {6.10}{\ignorespaces Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }}{66}{figure.caption.36}\protected@file@percent }
\newlabel{figFlowCBR}{{6.10}{66}{Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }{figure.caption.36}{}} 75 76 \newlabel{figFlowCBR}{{6.10}{66}{Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }{figure.caption.36}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}\protected@file@percent } 76 77 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}\protected@file@percent }
\newlabel{eqOpt1}{{6.13}{67}{Structure des agents}{equation.6.3.13}{}} 77 78 \newlabel{eqOpt1}{{6.13}{67}{Structure des agents}{equation.6.3.13}{}}
\newlabel{eqOpt2}{{6.14}{67}{Structure des agents}{equation.6.3.14}{}} 78 79 \newlabel{eqOpt2}{{6.14}{67}{Structure des agents}{equation.6.3.14}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}\protected@file@percent } 79 80 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.11}{\ignorespaces Structure interne des agents\relax }}{68}{figure.caption.38}\protected@file@percent } 80 81 \@writefile{lof}{\contentsline {figure}{\numberline {6.11}{\ignorespaces Structure interne des agents\relax }}{68}{figure.caption.38}\protected@file@percent }
\newlabel{figAgent}{{6.11}{68}{Structure interne des agents\relax }{figure.caption.38}{}} 81 82 \newlabel{figAgent}{{6.11}{68}{Structure interne des agents\relax }{figure.caption.38}{}}
\newlabel{eqBay}{{6.15}{68}{Apprentissage des agents}{equation.6.3.15}{}} 82 83 \newlabel{eqBay}{{6.15}{68}{Apprentissage des agents}{equation.6.3.15}{}}
\newlabel{eqRta}{{6.16}{68}{Apprentissage des agents}{equation.6.3.16}{}} 83 84 \newlabel{eqRta}{{6.16}{68}{Apprentissage des agents}{equation.6.3.16}{}}
\newlabel{eqRsa}{{6.17}{68}{Apprentissage des agents}{equation.6.3.17}{}} 84 85 \newlabel{eqRsa}{{6.17}{68}{Apprentissage des agents}{equation.6.3.17}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser\relax }}{69}{figure.caption.39}\protected@file@percent } 85 86 \@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser\relax }}{69}{figure.caption.39}\protected@file@percent }
\newlabel{fig:bayev}{{6.12}{69}{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser\relax }{figure.caption.39}{}} 86 87 \newlabel{fig:bayev}{{6.12}{69}{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser\relax }{figure.caption.39}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}\protected@file@percent } 87 88 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}\protected@file@percent } 88 89 \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {6.7}{\ignorespaces Description des jeux de données évalués.\relax }}{70}{table.caption.40}\protected@file@percent } 89 90 \@writefile{lot}{\contentsline {table}{\numberline {6.7}{\ignorespaces Description des jeux de données évalués.\relax }}{70}{table.caption.40}\protected@file@percent }
\newlabel{tabBases}{{6.7}{70}{Description des jeux de données évalués.\relax }{table.caption.40}{}} 90 91 \newlabel{tabBases}{{6.7}{70}{Description des jeux de données évalués.\relax }{table.caption.40}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.8}{\ignorespaces Paramètres de tous les algorithmes comparés\relax }}{70}{table.caption.41}\protected@file@percent } 91 92 \@writefile{lot}{\contentsline {table}{\numberline {6.8}{\ignorespaces Paramètres de tous les algorithmes comparés\relax }}{70}{table.caption.41}\protected@file@percent }
\newlabel{AlgsPar}{{6.8}{70}{Paramètres de tous les algorithmes comparés\relax }{table.caption.41}{}} 92 93 \newlabel{AlgsPar}{{6.8}{70}{Paramètres de tous les algorithmes comparés\relax }{table.caption.41}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }}{71}{table.caption.42}\protected@file@percent } 93 94 \@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }}{71}{table.caption.42}\protected@file@percent }
\newlabel{tabRes1}{{6.9}{71}{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }{table.caption.42}{}} 94 95 \newlabel{tabRes1}{{6.9}{71}{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }{table.caption.42}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression\relax }}{71}{table.caption.43}\protected@file@percent } 95 96 \@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des résultats MAE (Median Absolute Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }}{71}{table.caption.43}\protected@file@percent }
\newlabel{tabRes2}{{6.10}{71}{Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression\relax }{table.caption.43}{}} 96 97 \newlabel{tabRes2}{{6.10}{71}{Comparaison des résultats MAE (Median Absolute Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }{table.caption.43}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés\relax }}{71}{figure.caption.44}\protected@file@percent } 97 98 \@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Erreurs médianes absolues (MAE - Median Absolute Error) obtenues pour les dix algorithmes testés.\relax }}{71}{figure.caption.44}\protected@file@percent }
\newlabel{figBox}{{6.13}{71}{Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés\relax }{figure.caption.44}{}} 98 99 \newlabel{figBox}{{6.13}{71}{Erreurs médianes absolues (MAE - Median Absolute Error) obtenues pour les dix algorithmes testés.\relax }{figure.caption.44}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}\protected@file@percent } 99 100 \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}\protected@file@percent }
\@setckpt{./chapters/ESCBR}{ 100 101 \@setckpt{./chapters/ESCBR}{
\setcounter{page}{73} 101 102 \setcounter{page}{73}
\setcounter{equation}{17} 102 103 \setcounter{equation}{17}
\setcounter{enumi}{0} 103 104 \setcounter{enumi}{0}
\setcounter{enumii}{0} 104 105 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 105 106 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 106 107 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 107 108 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 108 109 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 109 110 \setcounter{part}{3}
\setcounter{chapter}{6} 110 111 \setcounter{chapter}{6}
\setcounter{section}{3} 111 112 \setcounter{section}{3}
\setcounter{subsection}{3} 112 113 \setcounter{subsection}{3}
\setcounter{subsubsection}{0} 113 114 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 114 115 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 115 116 \setcounter{subparagraph}{0}
\setcounter{figure}{13} 116 117 \setcounter{figure}{13}
\setcounter{table}{10} 117 118 \setcounter{table}{10}
\setcounter{caption@flags}{2} 118 119 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 119 120 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 120 121 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 121 122 \setcounter{subtable}{0}
\setcounter{parentequation}{0} 122 123 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 123 124 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 124 125 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 125 126 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 126 127 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{2} 127 128 \setcounter{upm@format@section@sectionlevel}{2}
\setcounter{upm@fmt@savedcounter}{0} 128 129 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 129 130 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 130 131 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 131 132 \setcounter{upmdefinition}{0}
\setcounter{section@level}{2} 132 133 \setcounter{section@level}{2}
\setcounter{Item}{0} 133 134 \setcounter{Item}{0}
\setcounter{Hfootnote}{0} 134 135 \setcounter{Hfootnote}{0}
\setcounter{bookmark@seq@number}{66} 135 136 \setcounter{bookmark@seq@number}{66}
\setcounter{DefaultLines}{2} 136 137 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 137 138 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 138 139 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 139 140 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 140 141 \setcounter{float@type}{8}
\setcounter{algorithm}{0} 141 142 \setcounter{algorithm}{0}
\setcounter{ALG@line}{0} 142 143 \setcounter{ALG@line}{0}
\setcounter{ALG@rem}{0} 143 144 \setcounter{ALG@rem}{0}
\setcounter{ALG@nested}{0} 144 145 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 145 146 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 146 147 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 147 148 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 148 149 \setcounter{ALG@tmpcounter}{0}
} 149 150 }
150 151
chapters/ESCBR.tex View file @ 4b1afa3
\chapter{Le raisonnement à partir de cas (RàPC) pour la régression} 1 1 \chapter{Le raisonnement à partir de cas (RàPC) pour la régression}
\chaptermark{RàPC POUR RÉGRESSION} 2 2 \chaptermark{RàPC POUR RÉGRESSION}
\label{ChapESCBR} 3 3 \label{ChapESCBR}
4 4
\section{Introduction} 5 5 \section{Introduction}
6 6
Ce chapitre est divisé en deux parties. La première partie présente un algorithme fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression. 7 7 Ce chapitre est divisé en deux parties. La première partie présente un algorithme fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression.
L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{soto6}.\\ 8 8 L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{soto6}.\\
9 9
Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. 10 10 Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche.
11 11
Le système de raisonnement à partir de cas ne nécessite pas d'entraînement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants. 12 12 Le système de raisonnement à partir de cas ne nécessite pas d'entraînement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants.
13 13
La technique d'ensemble permet de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs algorithmes exécutés indépendamment. Certaines de ces méthodes utilisent des algorithmes différents et des ensembles de données différents tandis que d'autres utilisent les mêmes algorithmes avec des paramètres différents. La combinaison des résultats provenant de multiples algorithmes peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette technique d'ensemble en la combinant à des outils d'apprentissage automatique. 14 14 La technique d'ensemble permet de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs algorithmes exécutés indépendamment. Certaines de ces méthodes utilisent des algorithmes différents et des ensembles de données différents tandis que d'autres utilisent les mêmes algorithmes avec des paramètres différents. La combinaison des résultats provenant de multiples algorithmes peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette technique d'ensemble en la combinant à des outils d'apprentissage automatique.
15 15
Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des algorithmes linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est une technique d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses algorithmes d'apprentissage automatique pour surmonter les limites des algorithmes individuels. Plusieurs études démontrent que l'association de ces algorithmes permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. 16 16 Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des algorithmes linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est une technique d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses algorithmes d'apprentissage automatique pour surmonter les limites des algorithmes individuels. Plusieurs études démontrent que l'association de ces algorithmes permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}.
17 17
La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. 18 18 La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}.
19 19
Le raisonnement bayésien clôt ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. 20 20 Le raisonnement bayésien clôt ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}.
21 21
\section{Apprentissage par empilement et raisonnement à partir de cas} 22 22 \section{Apprentissage par empilement et raisonnement à partir de cas}
\sectionmark{Apprentissage par empilement et RàPC} 23 23 \sectionmark{Apprentissage par empilement et RàPC}
24 24
Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement. 25 25 Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement.
26 26
\subsection{Algorithme Proposé} 27 27 \subsection{Algorithme Proposé}
28 28
L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation de l'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}. 29 29 L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation de l'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}.
30 30
\begin{figure}[!ht] 31 31 \begin{figure}[!ht]
\centering 32 32 \centering
\includegraphics[width=\textwidth]{./Figures/NCBR0.png} 33 33 \includegraphics[width=\textwidth]{./Figures/NCBR0.png}
\caption{Les deux cycles proposés pour le RàPC} 34 34 \caption{Les deux cycles proposés pour le RàPC}
\label{figNCBR1} 35 35 \label{figNCBR1}
\end{figure} 36 36 \end{figure}
37 37
L'étape de récupération utilise les algorithmes de recherche et le jeu de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé. 38 38 L'étape de récupération utilise les algorithmes de recherche et le jeu de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé.
39 39
\begin{figure}[!ht] 40 40 \begin{figure}[!ht]
\centering 41 41 \centering
\includegraphics[scale=0.6]{./Figures/FlowCBR0.png} 42 42 \includegraphics[scale=0.6]{./Figures/FlowCBR0.png}
\caption{Flux du \textit{Stacking} RàPC} 43 43 \caption{Flux du \textit{Stacking} RàPC}
\label{figFlowCBR0} 44 44 \label{figFlowCBR0}
\end{figure} 45 45 \end{figure}
46 46
\begin{table}[!ht] 47 47 \begin{table}[!ht]
\centering 48 48 \centering
\begin{tabular}{cccc} 49 49 \begin{tabular}{cccc}
ID&Type&Description&Domain\\ 50 50 ID&Type&Description&Domain\\
\hline 51 51 \hline
$it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\ 52 52 $it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\
$np$&p&Nombre de processus&$\mathbb{N}, np>2$\\ 53 53 $np$&p&Nombre de processus&$\mathbb{N}, np>2$\\
$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ 54 54 $nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\
$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ 55 55 $ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\
$n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\ 56 56 $n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\
$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ 57 57 $m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\
$z$&v&Taille du jeu de données&$\mathbb{N}, z>0$\\ 58 58 $z$&v&Taille du jeu de données&$\mathbb{N}, z>0$\\
$p$&v&Description du problème&$\mathbb{R} ^ n$\\ 59 59 $p$&v&Description du problème&$\mathbb{R} ^ n$\\
$s$&v&Description de la solution&$\mathbb{R} ^ m$\\ 60 60 $s$&v&Description de la solution&$\mathbb{R} ^ m$\\
$r_a$&v&Nombre d'algorithmes pour l'étape retrouver&$\mathbb{N}, r_a>2$\\ 61 61 $r_a$&v&Nombre d'algorithmes pour l'étape retrouver&$\mathbb{N}, r_a>2$\\
$r_b$&v&Nombre d'algorithmes pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\ 62 62 $r_b$&v&Nombre d'algorithmes pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\
$at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\ 63 63 $at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\
$nl_i$&v&Nombre de voisins locaux pour l'algorithme $i$&$\mathbb{N}, nl_i \le nl$\\ 64 64 $nl_i$&v&Nombre de voisins locaux pour l'algorithme $i$&$\mathbb{N}, nl_i \le nl$\\
$g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\ 65 65 $g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\
$v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\ 66 66 $v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\
$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ 67 67 $d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\
$MP(x_1^z,x_2,a)$&f&Fonction pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\ 68 68 $MP(x_1^z,x_2,a)$&f&Fonction pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\
$MS(x_1^m)$&f&Fonction pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\ 69 69 $MS(x_1^m)$&f&Fonction pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\
$f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\ 70 70 $f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\
\end{tabular} 71 71 \end{tabular}
\caption{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)} 72 72 \caption{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)}
\label{tabVarPar} 73 73 \label{tabVarPar}
\end{table} 74 74 \end{table}
75 75
\subsubsection{Rechercher} 76 76 \subsubsection{Rechercher}
La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, l'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ algorithmes dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation. 77 77 La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, l'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ algorithmes dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation.
78 78
\begin{figure} 79 79 \begin{figure}
\centering 80 80 \centering
\includegraphics[width=\textwidth]{./Figures/Stacking1.png} 81 81 \includegraphics[width=\textwidth]{./Figures/Stacking1.png}
\caption{\textit{Stacking} pour chercher les plus proches voisins} 82 82 \caption{\textit{Stacking} pour chercher les plus proches voisins}
\label{figSta1} 83 83 \label{figSta1}
\end{figure} 84 84 \end{figure}
85 85
Formellement, le premier empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?} 86 86 Formellement, le premier empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?}
un jeu de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches. 87 87 un jeu de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches.
88 88
\subsubsection{Réutiliser} 89 89 \subsubsection{Réutiliser}\label{Ssec:ReutiliserESCBR}
90 90
Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième empilement de différents processus. Cet empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des algorithmes $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}. 91 91 Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième empilement de différents processus. Cet empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des algorithmes $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}.
92 92
\begin{figure}[!ht] 93 93 \begin{figure}[!ht]
\centering 94 94 \centering
\includegraphics[scale=1]{./Figures/SolRep.png} 95 95 \includegraphics[scale=1]{./Figures/SolRep.png}
\caption{Représentation des solutions connues et générées} 96 96 \caption{Représentation des solutions connues et générées}
\label{figSolRep} 97 97 \label{figSolRep}
\end{figure} 98 98 \end{figure}
99 99
Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. 100 100 Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération.
101 101
\begin{figure}[!ht] 102 102 \begin{figure}[!ht]
\centering 103 103 \centering
\includegraphics[width=\textwidth]{./Figures/AutomaticS.png} 104 104 \includegraphics[width=\textwidth]{./Figures/AutomaticS.png}
\caption{Génération et vérification automatique des solutions} 105 105 \caption{Génération et vérification automatique des solutions}
\label{figAuto} 106 106 \label{figAuto}
\end{figure} 107 107 \end{figure}
108 108
La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. 109 109 La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}.
Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. 110 110 Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible.
111 111
\begin{equation} 112 112 \begin{equation}
\alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) 113 113 \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right)
\label{gen00} 114 114 \label{gen00}
\end{equation} 115 115 \end{equation}
116 116
\begin{equation} 117 117 \begin{equation}
s^m_{j,w}=\sum_{i=0}^{nl-1} \alpha_j s_{i,j} 118 118 s^m_{j,w}=\sum_{i=0}^{nl-1} \alpha_j s_{i,j}
\label{gen01} 119 119 \label{gen01}
\end{equation} 120 120 \end{equation}
121 121
La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}. 122 122 La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}.
123 123
\begin{equation} 124 124 \begin{equation}
s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl-1} s_{i,j} 125 125 s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl-1} s_{i,j}
\label{gen2} 126 126 \label{gen2}
\end{equation} 127 127 \end{equation}
128 128
La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$. 129 129 La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$.
130 130
\begin{equation} 131 131 \begin{equation}
s_{j,w}^m= 132 132 s_{j,w}^m=
\begin{cases} 133 133 \begin{cases}
x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\ 134 134 x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\
\frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\ 135 135 \frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\
\end{cases} 136 136 \end{cases}
\label{eqgen3} 137 137 \label{eqgen3}
\end{equation} 138 138 \end{equation}
139 139
La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité. 140 140 La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité.
141 141
\begin{equation} 142 142 \begin{equation}
s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) 143 143 s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right)
\label{eqgen4} 144 144 \label{eqgen4}
\end{equation} 145 145 \end{equation}
146 146
"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}. 147 147 "Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}.
148 148
\begin{equation} 149 149 \begin{equation}
s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) 150 150 s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right)
\label{eqgen5} 151 151 \label{eqgen5}
\end{equation} 152 152 \end{equation}
153 153
Le vote permet de copier l'information la plus fréquente de toutes (équation \ref{eqgen6}). 154 154 Le vote permet de copier l'information la plus fréquente de toutes (équation \ref{eqgen6}).
155 155
\begin{equation} 156 156 \begin{equation}
s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl 157 157 s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl
\label{eqgen6} 158 158 \label{eqgen6}
\end{equation} 159 159 \end{equation}
160 160
L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}. 161 161 L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}.
162 162
\begin{equation} 163 163 \begin{equation}
s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl 164 164 s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl
\label{eqgen7} 165 165 \label{eqgen7}
\end{equation} 166 166 \end{equation}
167 167
L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition. 168 168 L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition.
169 169
La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. 170 170 La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée.
171 171
L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. 172 172 L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$.
173 173
La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $k$ (équation \ref{eqma1}) et a sa valeur est ajouté à une valeur $X_1$. La valeur de $X_1$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$ (équation \ref{eqma2}). 174 174 La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $k$ (équation \ref{eqma1}) et a sa valeur est ajouté à une valeur $X_1$. La valeur de $X_1$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$ (équation \ref{eqma2}).
175 175
\begin{equation} 176 176 \begin{equation}
k \sim \left(\frac{1}{nl}\right) 177 177 k \sim \left(\frac{1}{nl}\right)
\label{eqma1} 178 178 \label{eqma1}
\end{equation} 179 179 \end{equation}
180 180
\begin{equation} 181 181 \begin{equation}
s_{w,j}^m=\begin{cases} 182 182 s_{w,j}^m=\begin{cases}
s_{j,k}^m+X_1& si \; (X_2)\%2=0\\ 183 183 s_{j,k}^m+X_1& si \; (X_2)\%2=0\\
s_{j,k}^m-X_1&sinon 184 184 s_{j,k}^m-X_1&sinon
\end{cases};X_1 \sim \mathcal{N}(0,1), X_2 \sim \mathcal{U}_{int}(0,10) 185 185 \end{cases};X_1 \sim \mathcal{N}(0,1), X_2 \sim \mathcal{U}_{int}(0,10)
\label{eqma2} 186 186 \label{eqma2}
\end{equation} 187 187 \end{equation}
188 188
\begin{figure} 189 189 \begin{figure}
\centering 190 190 \centering
\includegraphics[width=\textwidth]{./Figures/Stacking2.png} 191 191 \includegraphics[width=\textwidth]{./Figures/Stacking2.png}
\caption{\textit{Stacking} pour la génération de solutions} 192 192 \caption{\textit{Stacking} pour la génération de solutions}
\label{figSta2} 193 193 \label{figSta2}
\end{figure} 194 194 \end{figure}
195 195
La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième empilement. Chaque algorithme décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution. 196 196 La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième empilement. Chaque algorithme décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution.
197 197
\subsubsection{Révision} 198 198 \subsubsection{Révision}
199 199
Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace. 200 200 Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace.
201 201
La fonction objectif (équations \ref{eqOpt0} et \ref{eqOpt}) établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\ 202 202 La fonction objectif (équations \ref{eqOpt0} et \ref{eqOpt}) établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\
203 203
\begin{equation} 204 204 \begin{equation}
\lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+X)))}{d(p_w^n,p_x^n)^2} \right); \; X \sim \mathcal{N}(0,d(p_w^n, p_x^n) 205 205 \lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+X)))}{d(p_w^n,p_x^n)^2} \right); \; X \sim \mathcal{N}(0,d(p_w^n, p_x^n)
\label{eqOpt0} 206 206 \label{eqOpt0}
\end{equation} 207 207 \end{equation}
208 208
\begin{equation} 209 209 \begin{equation}
min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right) 210 210 min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right)
\label{eqOpt} 211 211 \label{eqOpt}
\end{equation} 212 212 \end{equation}
213 213
\begin{figure}[!ht] 214 214 \begin{figure}[!ht]
\centering 215 215 \centering
\includegraphics[width=\textwidth]{Figures/FW.png} 216 216 \includegraphics[width=\textwidth]{Figures/FW.png}
\caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)} 217 217 \caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)}
\label{fig:FW} 218 218 \label{fig:FW}
\end{figure} 219 219 \end{figure}
220 220
Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. 221 221 Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée.
222 222
\subsubsection{Mémorisation} 223 223 \subsubsection{Mémorisation}
224 224
L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances. 225 225 L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances.
226 226
\subsection{Résultats} 227 227 \subsection{Résultats}
228 228
Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. 229 229 Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$.
230 230
\begin{table}[!ht] 231 231 \begin{table}[!ht]
\tiny 232 232 \tiny
\centering 233 233 \centering
\begin{tabular}{llccccc} 234 234 \begin{tabular}{llccccc}
ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\ 235 235 ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\
\hline 236 236 \hline
DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ 237 237 DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\
DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ 238 238 DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\
DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 239 239 DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ 240 240 DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\
DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ 241 241 DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\
DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 242 242 DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 243 243 DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 244 244 DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ 245 245 DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\
DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ 246 246 DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\
\end{tabular} 247 247 \end{tabular}
\caption{Description des jeux de données évalués} 248 248 \caption{Description des jeux de données évalués}
\label{tabBases2} 249 249 \label{tabBases2}
\end{table} 250 250 \end{table}
251 251
L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs. 252 252 L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs.
253 253
\begin{table}[!ht] 254 254 \begin{table}[!ht]
\centering 255 255 \centering
\footnotesize 256 256 \footnotesize
\begin{tabular}{ll|ll} 257 257 \begin{tabular}{ll|ll}
ID&Algorithme&ID&Algorithme\\ 258 258 ID&Algorithme&ID&Algorithme\\
\hline 259 259 \hline
A1&Linear Regression&A6&Polinomial Regression\\ 260 260 A1&Linear Regression&A6&Polinomial Regression\\
A2&K-Nearest Neighbor&A7&Ridge Regression\\ 261 261 A2&K-Nearest Neighbor&A7&Ridge Regression\\
A3&Decision Tree&A8&Lasso Regression\\ 262 262 A3&Decision Tree&A8&Lasso Regression\\
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ 263 263 A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\
A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ 264 264 A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\
\end{tabular} 265 265 \end{tabular}
\caption{Liste des algorithmes évalués} 266 266 \caption{Liste des algorithmes évalués}
\label{tabAlgs2} 267 267 \label{tabAlgs2}
\end{table} 268 268 \end{table}
269 269
Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. 270 270 Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données.
271 271
\begin{table}[!ht] 272 272 \begin{table}[!ht]
\footnotesize 273 273 \footnotesize
\centering 274 274 \centering
\begin{tabular}{c|ccccccccccc} 275 275 \begin{tabular}{c|ccccccccccc}
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ 276 276 Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
\hline 277 277 \hline
DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\ 278 278 DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\
DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\ 279 279 DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\
DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\ 280 280 DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\
DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\ 281 281 DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\
DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\ 282 282 DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\
DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\ 283 283 DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\
DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\ 284 284 DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\
DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\ 285 285 DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\
DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\ 286 286 DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\
DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\ 287 287 DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\
\hline 288 288 \hline
Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ 289 289 Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\
\end{tabular} 290 290 \end{tabular}
\caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} 291 291 \caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}
\label{tabRes1_2} 292 292 \label{tabRes1_2}
\end{table} 293 293 \end{table}
294 294
\begin{table}[!ht] 295 295 \begin{table}[!ht]
\footnotesize 296 296 \footnotesize
\centering 297 297 \centering
\begin{tabular}{c|ccccccccccc} 298 298 \begin{tabular}{c|ccccccccccc}
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ 299 299 Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
\hline 300 300 \hline
DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\ 301 301 DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\
DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\ 302 302 DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\
DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\ 303 303 DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\
DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\ 304 304 DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\
DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\ 305 305 DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\
DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\ 306 306 DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\
DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\ 307 307 DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\
DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\ 308 308 DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\
DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\ 309 309 DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\
DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\ 310 310 DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\
\hline 311 311 \hline
Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ 312 312 Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\
\end{tabular} 313 313 \end{tabular}
\caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} 314 314 \caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}
\label{tabRes2_2} 315 315 \label{tabRes2_2}
\end{table} 316 316 \end{table}
317 317
La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés. 318 318 La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés.
319 319
\begin{figure} 320 320 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/boxplot.png} 321 321 \includegraphics[width=\textwidth]{./Figures/boxplot.png}
\caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives} 322 322 \caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives}
\label{figBox2} 323 323 \label{figBox2}
\end{figure} 324 324 \end{figure}
325 325
\subsection{Discussion} 326 326 \subsection{Discussion}
327 327
De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités. 328 328 De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités.
329 329
On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire). 330 330 On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire).
331 331
Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. 332 332 Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place.
333 333
Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. 334 334 Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique.
335 335
De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certains problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables. 336 336 De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certains problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables.
337 337
\subsection{Conclusion} 338 338 \subsection{Conclusion}
339 339
Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisé ESCBR. Cet algorithme ne nécessite pas d'entraînement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\ 340 340 Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisée ESCBR. Cet algorithme ne nécessite pas d'entraînement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\
341 341
\section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} 342 342 \section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}
343 343
La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tournés vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA. 344 344 La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tournés vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA.
345 345
\subsection{Algorithme Proposé} 346 346 \subsection{Algorithme Proposé}
347 347
L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante de la technique d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi. 348 348 L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante de la technique d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi.
349 349
\begin{figure}[!ht] 350 350 \begin{figure}[!ht]
\centering 351 351 \centering
\includegraphics[width=\textwidth]{Figures/NCBR.png} 352 352 \includegraphics[width=\textwidth]{Figures/NCBR.png}
\caption{Deux cycles du système ESCBR-SMA proposé} 353 353 \caption{Deux cycles du système ESCBR-SMA proposé}
\label{figNCBR} 354 354 \label{figNCBR}
\end{figure} 355 355 \end{figure}
356 356
Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée. 357 357 Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée.
358 358
Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes : 359 359 Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes :
\begin{itemize} 360 360 \begin{itemize}
\item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante, 361 361 \item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante,
\item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération, 362 362 \item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération,
\item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme. 363 363 \item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme.
\end{itemize} 364 364 \end{itemize}
365 365
Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}. 366 366 Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}.
367 367
En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données. 368 368 En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données.
369 369
Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution. 370 370 Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution.
Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade. 371 371 Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade.
372 372
Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif. 373 373 Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif.
374 374
Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate. 375 375 Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate.
376 376
ESCBR-SMA utilise l'ensemble des variables et paramètres du tableau \ref{tabVarPar} ainsi que ceux consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques. 377 377 ESCBR-SMA utilise l'ensemble des variables et paramètres du tableau \ref{tabVarPar} ainsi que ceux consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques.
378 378
\begin{figure}[!ht] 379 379 \begin{figure}[!ht]
\centering 380 380 \centering
\includegraphics[scale=0.6]{Figures/FlowCBR.png} 381 381 \includegraphics[scale=0.6]{Figures/FlowCBR.png}
\caption{Flux du \textit{Stacking} du RàPC (* : tâche effectuée par chaque agent)} 382 382 \caption{Flux du \textit{Stacking} du RàPC (* : tâche effectuée par chaque agent)}
\label{figFlowCBR} 383 383 \label{figFlowCBR}
\end{figure} 384 384 \end{figure}
385 385
\begin{table}[!ht] 386 386 \begin{table}[!ht]
\footnotesize 387 387 \footnotesize
\centering 388 388 \centering
\begin{tabular}{cccc} 389 389 \begin{tabular}{cccc}
ID&Type&Description&Domain\\ 390 390 ID&Type&Description&Domain\\
\hline 391 391 \hline
$p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\ 392 392 $p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\
$s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ 393 393 $s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\
$n_{rt}$&v&Nombre d'algorithmes pour l'étape de retrouver&$\mathbb{Z}$\\ 394 394 $n_{rt}$&v&Nombre d'algorithmes pour l'étape de retrouver&$\mathbb{Z}$\\
$n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\ 395 395 $n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\
$rn(x,y)$&f& 396 396 $rn(x,y)$&f&
397 397
\begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type 398 398 \begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type
\end{tabular} 399 399 \end{tabular}
400 400
&$\mathbb{R}_+$\\ 401 401 &$\mathbb{R}_+$\\
$rnp(x,y)$&f& 402 402 $rnp(x,y)$&f&
403 403
\begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités 404 404 \begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités
\end{tabular} 405 405 \end{tabular}
&$\mathbb{Z}$\\ 406 406 &$\mathbb{Z}$\\
\end{tabular} 407 407 \end{tabular}
\caption{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)} 408 408 \caption{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)}
\label{tabVarPar2} 409 409 \label{tabVarPar2}
\end{table} 410 410 \end{table}
411 411
\subsubsection{Algorithmes} 412 412 \subsubsection{Algorithmes suivis par ESCBR-SMA}
413 413
Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA. 414 414 Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA.
415 415
Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes suivants pour rechercher des problèmes similaires au problème cible : KNN (\textit{K-Nearest Neighbor}), \textit{KMeans}, GMM (\textit{Gaussian Mixture Model}), \textit{FuzzyC} et KNN pondéré. 416 416 Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes suivants pour rechercher des problèmes similaires au problème cible : KNN (\textit{K-Nearest Neighbor}), \textit{KMeans}, GMM (\textit{Gaussian Mixture Model}), \textit{FuzzyC} et KNN pondéré.
417 417
Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les algorithmes explicités dans la section 6.2.1.2. 418 418 Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les algorithmes explicités dans la section \ref{Ssec:ReutiliserESCBR}.
419 419
\subsubsection{Structure des agents} 420 420 \subsubsection{Structure des agents}
421 421
Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'adopter un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus. 422 422 Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'adopter un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus.
423 423
Chaque agent peut exécuter trois actions différentes : 424 424 Chaque agent peut exécuter trois actions différentes :
\begin{itemize} 425 425 \begin{itemize}
\item « Récupérer et réutiliser », 426 426 \item « Récupérer et réutiliser »,
\item « Réutiliser » et 427 427 \item « Réutiliser » et
\item « Échanger ». 428 428 \item « Échanger ».
\end{itemize} 429 429 \end{itemize}
430 430
Chaque agent accède aux valeurs de huit variables qui lui sont propres : 431 431 Chaque agent accède aux valeurs de huit variables qui lui sont propres :
\begin{itemize} 432 432 \begin{itemize}
\item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissances, 433 433 \item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissances,
\item la liste des voisins les plus proches consigne les agents avec lesquels des informations peuvent être échangées, 434 434 \item la liste des voisins les plus proches consigne les agents avec lesquels des informations peuvent être échangées,
\item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au problème cible, 435 435 \item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au problème cible,
\item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible, 436 436 \item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible,
\item la description de la solution générée, 437 437 \item la description de la solution générée,
\item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (équations \ref{eqOpt1} et \ref{eqOpt2}), 438 438 \item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (équations \ref{eqOpt1} et \ref{eqOpt2}),
\item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et 439 439 \item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et
\item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité. 440 440 \item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité.
\end{itemize} 441 441 \end{itemize}
442 442
\begin{equation} 443 443 \begin{equation}
min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right) 444 444 min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right)
\label{eqOpt1} 445 445 \label{eqOpt1}
\end{equation} 446 446 \end{equation}
447 447
\begin{equation} 448 448 \begin{equation}
s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n)) 449 449 s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n))
\label{eqOpt2} 450 450 \label{eqOpt2}
\end{equation} 451 451 \end{equation}
452 452
\begin{figure}[!ht] 453 453 \begin{figure}[!ht]
\centering 454 454 \centering
\includegraphics[scale=0.7]{Figures/agent.png} 455 455 \includegraphics[scale=0.7]{Figures/agent.png}
\caption{Structure interne des agents} 456 456 \caption{Structure interne des agents}
\label{figAgent} 457 457 \label{figAgent}
\end{figure} 458 458 \end{figure}
459 459
\subsubsection{Apprentissage des agents} 460 460 \subsubsection{Apprentissage des agents}
461 461
Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$ de la figure \ref{figNCBR}) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation bayésienne \ref{eqBay} en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini. 462 462 Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$ de la figure \ref{figNCBR}) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation bayésienne \ref{eqBay} en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini.
463 463
Par conséquent, d'un point de vue plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global). 464 464 Par conséquent, d'un point de vue plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global).
465 465
\begin{figure} 466 466 \begin{figure}
\centering 467 467 \centering
\includegraphics[scale=0.5]{Figures/BayesianEvolution.png} 468 468 \includegraphics[scale=0.5]{Figures/BayesianEvolution.png}
\caption{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser} 469 469 \caption{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser}
\label{fig:bayev} 470 470 \label{fig:bayev}
\end{figure} 471 471 \end{figure}
472 472
\begin{equation} 473 473 \begin{equation}
P(A|B)=\frac{P(B|A)P(A)}{P(B)} 474 474 P(A|B)=\frac{P(B|A)P(A)}{P(B)}
\label{eqBay} 475 475 \label{eqBay}
\end{equation} 476 476 \end{equation}
477 477
La fonction $rnp$ de l'équation \ref{eqRta} choisit l'algorithme de recherche $a_{rt}$ de l'étape $rt$. 478 478 La fonction $rnp$ de l'équation \ref{eqRta} choisit l'algorithme de recherche $a_{rt}$ de l'étape $rt$.
Cette fonction prend en paramètres l'ensemble des algorithmes possibles $n_{rt}$ et une probabilité associée $P(A|B)_{rt}$. $P(A|B)_{rt}$ représente la probabilité que l'algorithme de recherche associé fournisse la solution optimale à l'étape $rt$. 479 479 Cette fonction prend en paramètres l'ensemble des algorithmes possibles $n_{rt}$ et une probabilité associée $P(A|B)_{rt}$. $P(A|B)_{rt}$ représente la probabilité que l'algorithme de recherche associé fournisse la solution optimale à l'étape $rt$.
480 480
\begin{equation} 481 481 \begin{equation}
a_{rt}=rnp(n_{rt},P(A|B)_{rt}) 482 482 a_{rt}=rnp(n_{rt},P(A|B)_{rt})
\label{eqRta} 483 483 \label{eqRta}
\end{equation} 484 484 \end{equation}
485 485
La fonction $rnp$ est de nouveau utilisée pour choisir l'algorithme de réutilisation $a_{rs}$ (équation \ref{eqRsa}). 486 486 La fonction $rnp$ est de nouveau utilisée pour choisir l'algorithme de réutilisation $a_{rs}$ (équation \ref{eqRsa}).
487 487
\begin{equation} 488 488 \begin{equation}
a_{rs}=rnp(n_{rs},P(A|B)_{rs}) 489 489 a_{rs}=rnp(n_{rs},P(A|B)_{rs})
\label{eqRsa} 490 490 \label{eqRsa}
\end{equation} 491 491 \end{equation}
492 492
Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés. 493 493 Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés.
494 494
\subsubsection{Échanges entre les agents} 495 495 \subsubsection{Échanges entre les agents}
496 496
Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifiables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens. 497 497 Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifiables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens.
498 498
\subsection{Résultats} 499 499 \subsection{Résultats}
500 500
Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres d'ESCBR-SMA sont les suivantes : $it=100$ itérations, $np=50$ agents, $nl=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-0} et $ng=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-1}. 501 501 Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres d'ESCBR-SMA sont les suivantes : $it=100$ itérations, $np=50$ agents, $nl=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-0} et $ng=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-1}.
502 502
Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes. 503 503 Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes.
504 504
\begin{table}[!ht] 505 505 \begin{table}[!ht]
\scriptsize 506 506 \scriptsize
\centering 507 507 \centering
\begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}} 508 508 \begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}}
ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\ 509 509 ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\
\hline 510 510 \hline
DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ 511 511 DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\
DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ 512 512 DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\
DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 513 513 DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ 514 514 DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\
DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ 515 515 DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\
DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 516 516 DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 517 517 DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 518 518 DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ 519 519 DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\
DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ 520 520 DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\
DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\ 521 521 DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\
\end{tabular} 522 522 \end{tabular}
\caption{Description des jeux de données évalués.} 523 523 \caption{Description des jeux de données évalués.}
\label{tabBases} 524 524 \label{tabBases}
\end{table} 525 525 \end{table}
526 526
\begin{table}[!ht] 527 527 \begin{table}[!ht]
\centering 528 528 \centering
\begin{tabular}{ccc|ccc} 529 529 \begin{tabular}{ccc|ccc}
ID&Parameter&Value&ID&Parameter&Value\\ 530 530 ID&Parameter&Value&ID&Parameter&Value\\
\hline 531 531 \hline
A1&Intercept&True&A6&Degree&4\\ 532 532 A1&Intercept&True&A6&Degree&4\\
&Positive&True&&Bias&True\\ 533 533 &Positive&True&&Bias&True\\
\hline 534 534 \hline
A2&Neighbors&5&A7&Fit Intercept&True\\ 535 535 A2&Neighbors&5&A7&Fit Intercept&True\\
&Weights&Uniform&&alpha&0.2\\ 536 536 &Weights&Uniform&&alpha&0.2\\
&Metric&Minkowsky&&tol&1e-4\\ 537 537 &Metric&Minkowsky&&tol&1e-4\\
&Power Minkowsky&2\\ 538 538 &Power Minkowsky&2\\
\hline 539 539 \hline
A3&Error&Squared Error&A8&Fit Intercept&True\\ 540 540 A3&Error&Squared Error&A8&Fit Intercept&True\\
&Min samples split&2&&alpha&[0.00001, 0.4]\\ 541 541 &Min samples split&2&&alpha&[0.00001, 0.4]\\
&&&&Max iter&1000\\ 542 542 &&&&Max iter&1000\\
&&&&tol&1e-4\\ 543 543 &&&&tol&1e-4\\
\hline 544 544 \hline
A4&Estimators&10&A9&Error&Squarred Error\\ 545 545 A4&Estimators&10&A9&Error&Squarred Error\\
&Error&Squared Error&&Learning Rate&0.1\\ 546 546 &Error&Squared Error&&Learning Rate&0.1\\
&Min samples split&2&&Estimators&100\\ 547 547 &Min samples split&2&&Estimators&100\\
&Bootstrap&True&&Min Split&2\\ 548 548 &Bootstrap&True&&Min Split&2\\
\hline 549 549 \hline
A5&Hidden Layers&100\\ 550 550 A5&Hidden Layers&100\\
&Activation&Relu\\ 551 551 &Activation&Relu\\
&Solver&Adam\\ 552 552 &Solver&Adam\\
&alpha&0.0001\\ 553 553 &alpha&0.0001\\
&Learning Rate&0.001\\ 554 554 &Learning Rate&0.001\\
&Max Iter&200\\ 555 555 &Max Iter&200\\
&beta1&0.9\\ 556 556 &beta1&0.9\\
&beta2&0.999\\ 557 557 &beta2&0.999\\
&epsilon&1e-8\\ 558 558 &epsilon&1e-8\\
\end{tabular} 559 559 \end{tabular}
\caption{Paramètres de tous les algorithmes comparés} 560 560 \caption{Paramètres de tous les algorithmes comparés}
\label{AlgsPar} 561 561 \label{AlgsPar}
\end{table} 562 562 \end{table}
563 563
\begin{table}[!ht] 564 564 \begin{table}[!ht]
\scriptsize 565 565 \scriptsize
\centering 566 566 \centering
\begin{tabular}{c|ccccccccccc} 567 567 \begin{tabular}{c|ccccccccccc}
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ 568 568 Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\
\hline 569 569 \hline
DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&5.871&4.777\\ 570 570 DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&5.871&4.777\\
DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.015&0.015\\DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.491&7.991\\ 571 571 DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.015&0.015\\DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.491&7.991\\
DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.762&0.607\\ 572 572 DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.762&0.607\\
DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.748&0.662\\ 573 573 DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.748&0.662\\
DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&8.766&9.070\\ 574 574 DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&8.766&9.070\\
DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&1.973&2.424\\ 575 575 DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&1.973&2.424\\
DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.157&2.553\\ 576 576 DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.157&2.553\\
DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.802&2.468\\ 577 577 DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.802&2.468\\
DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.874&3.621\\ 578 578 DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.874&3.621\\
DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681& 579 579 DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&
0.541&0.55&0.54\\ 580 580 0.541&0.55&0.54\\
\hline 581 581 \hline
Avg. Rank&6.32&6.73&8.09&2.73&7.27&6.45&6.32&9.36&1.82&6.14&4.77\\ 582 582 Avg. Rank&6.32&6.73&8.09&2.73&7.27&6.45&6.32&9.36&1.82&6.14&4.77\\
\end{tabular} 583 583 \end{tabular}
\caption{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.} 584 584 \caption{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.}
\label{tabRes1} 585 585 \label{tabRes1}
\end{table} 586 586 \end{table}
587 587
\begin{table}[!ht] 588 588 \begin{table}[!ht]
\scriptsize 589 589 \scriptsize
\centering 590 590 \centering
\begin{tabular}{c|ccccccccccc} 591 591 \begin{tabular}{c|ccccccccccc}
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ 592 592 Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\
\hline 593 593 \hline
DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.1\\ 594 594 DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.1\\
DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\ 595 595 DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\
DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.9&3.771\\ 596 596 DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.9&3.771\\
DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\ 597 597 DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\
DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\ 598 598 DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\
DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\ 599 599 DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\
DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\ 600 600 DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\
DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\ 601 601 DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\
DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\ 602 602 DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\
DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\ 603 603 DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\
DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453& 604 604 DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&
0.327&0.35&0.347\\ 605 605 0.327&0.35&0.347\\
\hline 606 606 \hline
Avg. Rank&7.22&7.05&5.5&2.55&7.95&7.32&7.36&8.90&2.45 607 607 Avg. Rank&7.22&7.05&5.5&2.55&7.95&7.32&7.36&8.90&2.45
&5.51&4.72\\ 608 608 &5.51&4.72\\
\end{tabular} 609 609 \end{tabular}
\caption{Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression} 610 610 \caption{Comparaison des résultats MAE (Median Absolute Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.}
\label{tabRes2} 611 611 \label{tabRes2}
\end{table} 612 612 \end{table}
613 613
Les tableaux \ref{tabRes1} et \ref{tabRes2} présentent respectivement les RMSE et les MAE obtenues pour chaque jeu de données et chaque algorithme testé. 614 614 Les tableaux \ref{tabRes1} et \ref{tabRes2} présentent respectivement les RMSE et les MAE obtenues pour chaque jeu de données et chaque algorithme testé.
615 615
La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus nombreuses que les valeurs réelles. 616 616 La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus nombreuses que les valeurs réelles.
617 617
\begin{figure}[!ht] 618 618 \begin{figure}[!ht]
\includegraphics[width=\textwidth]{Figures/boxplot2.png} 619 619 \includegraphics[width=\textwidth]{Figures/boxplot2.png}
\caption{Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés} 620 620 \caption{Erreurs médianes absolues (MAE - Median Absolute Error) obtenues pour les dix algorithmes testés.}
\label{figBox} 621 621 \label{figBox}
\end{figure} 622 622 \end{figure}
623 623
Les résultats montrent que l'algorithme ESCBR-SMA est compétitif pour la plupart des jeux de données considérés dans cette étude. Il obtient en effet les meilleurs résultats sur $DS2$, $DS4$, $DS5$ et $DS9$. Globalement, ESCBR-SMA est le troisième meilleur algorithme. Ses performances sont donc comparables à celles des autres algorithmes d'ensemble testés. Par rapport à ESCBR, une amélioration des résultats et une réduction de la variance ont été obtenues, démontrant ainsi que les systèmes multi-agents et le raisonnement stochastique bayésien contribuent à l'apprentissage et à la convergence vers des solutions plus proches de la solution réelle. 624 624 Les résultats montrent que l'algorithme ESCBR-SMA est compétitif pour la plupart des jeux de données considérés dans cette étude. Il obtient en effet les meilleurs résultats sur $DS2$, $DS4$, $DS5$ et $DS9$. Globalement, ESCBR-SMA est le troisième meilleur algorithme. Ses performances sont donc comparables à celles des autres algorithmes d'ensemble testés. Par rapport à ESCBR, une amélioration des résultats et une réduction de la variance ont été obtenues, démontrant ainsi que les systèmes multi-agents et le raisonnement stochastique bayésien contribuent à l'apprentissage et à la convergence vers des solutions plus proches de la solution réelle.
625 625
\subsection{Conclusion} 626 626 \subsection{Conclusion}
Cette version d'ECBR intégrant un SMA propose d'utiliser les avantages des systèmes multi-agents pour améliorer la qualité des solutions proposées et également le processus d'apprentissage global en couvrant un plus large spectre de possibilités et en le couvrant de manière intelligente à l'aide d'un raisonnement bayésien. ESCBR-SMA permet ainsi d'obtenir de bonnes approximations avec peu de données. 627 627 Cette version d'ESCBR intégrant un SMA propose d'utiliser les avantages des systèmes multi-agents pour améliorer la qualité des solutions proposées et également le processus d'apprentissage global en couvrant un plus large spectre de possibilités et en le couvrant de manière intelligente à l'aide d'un raisonnement bayésien. ESCBR-SMA permet ainsi d'obtenir de bonnes approximations avec peu de données.
628 628
Ce travail a démontré la capacité d'ESCBR-SMA à trouver des solutions proches de l'optimum global pour la majorité des ensembles de données analysés. Ces jeux de données présentent une certaine diversité, ils peuvent être déséquilibrés et ils sont de tailles différentes. Grâce aux caractéristiques inhérentes aux systèmes multi-agents (possibilités de rétroactions, d'échanges d'informations, l'émergence d'une intelligence collective, l'utilisation de raisonnements cognitifs), les performances d'ESCBR-SMA sont meilleures que celles d'ESCBR. 629 629 Ce travail a démontré la capacité d'ESCBR-SMA à trouver des solutions proches de l'optimum global pour la majorité des ensembles de données analysés. Ces jeux de données présentent une certaine diversité, ils peuvent être déséquilibrés et ils sont de tailles différentes. Grâce aux caractéristiques inhérentes aux systèmes multi-agents (possibilités de rétroactions, d'échanges d'informations, l'émergence d'une intelligence collective, l'utilisation de raisonnements cognitifs), les performances d'ESCBR-SMA sont meilleures que celles d'ESCBR.
630 630
Dans le chapitre suivant, nous explorons la possibilité d'intégrer de nouveaux outils à ESCBR-SMA pour la recommandation d'exercices en cours de séance d'entraînement dans l'EIAH AI-VT. 631 631 Dans le chapitre suivant, nous explorons la possibilité d'intégrer de nouveaux outils à ESCBR-SMA pour la recommandation d'exercices en cours de séance d'entraînement dans l'EIAH AI-VT.
chapters/Publications.aux View file @ 4b1afa3
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\@writefile{toc}{\contentsline {chapter}{\numberline {9}Publications}{107}{chapter.9}\protected@file@percent } 3 3 \@writefile{toc}{\contentsline {chapter}{\numberline {9}Publications}{107}{chapter.9}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 4 4 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 5 5 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {9.1}Publications liées au sujet de thèse}{107}{section.9.1}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {section}{\numberline {9.1}Publications liées au sujet de thèse}{107}{section.9.1}\protected@file@percent }
\@writefile{toc}{\contentsline {section}{\numberline {9.2}Autres publications}{108}{section.9.2}\protected@file@percent } 7 7 \@writefile{toc}{\contentsline {section}{\numberline {9.2}Autres publications}{108}{section.9.2}\protected@file@percent }
\@setckpt{./chapters/Publications}{ 8 8 \@setckpt{./chapters/Publications}{
\setcounter{page}{109} 9 9 \setcounter{page}{109}
\setcounter{equation}{0} 10 10 \setcounter{equation}{0}
\setcounter{enumi}{0} 11 11 \setcounter{enumi}{0}
\setcounter{enumii}{0} 12 12 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 13 13 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 14 14 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 15 15 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 16 16 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 17 17 \setcounter{part}{3}
\setcounter{chapter}{9} 18 18 \setcounter{chapter}{9}
\setcounter{section}{2} 19 19 \setcounter{section}{2}
\setcounter{subsection}{0} 20 20 \setcounter{subsection}{0}
\setcounter{subsubsection}{0} 21 21 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 22 22 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 23 23 \setcounter{subparagraph}{0}
\setcounter{figure}{0} 24 24 \setcounter{figure}{0}
\setcounter{table}{0} 25 25 \setcounter{table}{0}
\setcounter{caption@flags}{2} 26 26 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 27 27 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 28 28 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 29 29 \setcounter{subtable}{0}
\setcounter{parentequation}{0} 30 30 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 31 31 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 32 32 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 33 33 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 34 34 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{1} 35 35 \setcounter{upm@format@section@sectionlevel}{1}
\setcounter{upm@fmt@savedcounter}{0} 36 36 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 37 37 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 38 38 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 39 39 \setcounter{upmdefinition}{0}
\setcounter{section@level}{1} 40 40 \setcounter{section@level}{1}
\setcounter{Item}{0} 41 41 \setcounter{Item}{0}
\setcounter{Hfootnote}{0} 42 42 \setcounter{Hfootnote}{0}
\setcounter{bookmark@seq@number}{95} 43 43 \setcounter{bookmark@seq@number}{93}
\setcounter{DefaultLines}{2} 44 44 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 45 45 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 46 46 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 47 47 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 48 48 \setcounter{float@type}{8}
\setcounter{algorithm}{1} 49 49 \setcounter{algorithm}{1}
\setcounter{ALG@line}{8} 50 50 \setcounter{ALG@line}{8}
\setcounter{ALG@rem}{8} 51 51 \setcounter{ALG@rem}{8}
\setcounter{ALG@nested}{0} 52 52 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 53 53 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 54 54 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 55 55 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 56 56 \setcounter{ALG@tmpcounter}{0}
} 57 57 }
58 58
chapters/Publications.tex View file @ 4b1afa3
\chapter{Publications} 1 1 \chapter{Publications}
2 2
Pendant le travail de cette thèse, plusieurs articles ont été produits, explicitant les contributions réalisées. D'autres publications ont été produites en marge du sujet de cette thèse dans le cadre de la recherche en informatique.\\ 3 3 Pendant le travail de cette thèse, plusieurs articles ont été produits, explicitant les contributions réalisées. D'autres publications ont été produites en marge du sujet de cette thèse dans le cadre de la recherche en informatique.\\
4 4
\section{Publications liées au sujet de thèse} 5 5 \section{Publications liées au sujet de thèse}
6 6
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Stochastic Recommendation and Case-Based Reasoning Model Applied to the Intelligent Tutoring System AI-VT. (En évaluation)\\ 7 7 Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Stochastic Recommendation and Case-Based Reasoning Model Applied to the Intelligent Tutoring System AI-VT. (En évaluation)\\
8 8
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Integration of Stacking Case-Based Reasoning with a Multi-Agent System Applied to Regression Problems. (En évaluation).\\ 9 9 Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Integration of Stacking Case-Based Reasoning with a Multi-Agent System Applied to Regression Problems. (En évaluation).\\
10 10
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Ensemble Stacking Case-Based Reasoning and a Stochastic Recommender Algorithm with the Hawkes Process Applied to ITS AI-VT. (ITS - International Conference on Intelligent Tutoring Systems) 2025.\\ 11 11 Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Ensemble Stacking Case-Based Reasoning and a Stochastic Recommender Algorithm with the Hawkes Process Applied to ITS AI-VT. (ITS - International Conference on Intelligent Tutoring Systems) 2025.\\
12 12
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Modèle de Recommandation Stochastique et de Raisonnement à Partir de Cas Appliqué à AI-VT. (EIAH - Conférence sur les Environnements Informatiques pour l'Apprentissage Humain) 2025.\\ 13 13 Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Modèle de Recommandation Stochastique et de Raisonnement à Partir de Cas Appliqué à AI-VT. (EIAH - Conférence sur les Environnements Informatiques pour l'Apprentissage Humain) 2025.\\
14 14
Daniel Soto Forero, Simha Ackermann, Marie-Laure Betbeder and Julien Henriet. The Intelligent Tutoring System AI-VT with Case-Based Reasoning and Real Time Recommender Models. ICCBR - International Conference on Case-Based Reasoning. 2024.\\ 15 15 Daniel Soto Forero, Simha Ackermann, Marie-Laure Betbeder and Julien Henriet. The Intelligent Tutoring System AI-VT with Case-Based Reasoning and Real Time Recommender Models. ICCBR - International Conference on Case-Based Reasoning. 2024.\\
16 16
Daniel Soto Forero, Marie-Laure Betbeder and Julien Henriet. Ensemble Stacking Case-Based Reasoning for Regression. ICCBR - International Conference on Case-Based Reasoning. 2024.\\ 17 17 Daniel Soto Forero, Marie-Laure Betbeder and Julien Henriet. Ensemble Stacking Case-Based Reasoning for Regression. ICCBR - International Conference on Case-Based Reasoning. 2024.\\
18 18
chapters/TS.aux View file @ 4b1afa3
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{Liu2023} 3 3 \citation{Liu2023}
\citation{MUANGPRATHUB2020e05227} 4 4 \citation{MUANGPRATHUB2020e05227}
\citation{9870279} 5 5 \citation{9870279}
\citation{Soto2} 6 6 \citation{Soto2}
\@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent } 7 7 \@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 8 8 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 9 9 \@writefile{lot}{\addvspace {10\p@ }}
10 \newlabel{chap:RecommandationAIVT}{{7}{73}{Système de Recommandation dans AI-VT}{chapter.7}{}}
\@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent } 10 11 \@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent }
\citation{soto4} 11 12 \citation{soto4}
\citation{soto5} 12 13 \citation{soto5}
\@writefile{toc}{\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}\protected@file@percent } 13 14 \@writefile{toc}{\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Algorithme Proposé}{74}{subsection.7.2.1}\protected@file@percent } 14 15 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Algorithme Proposé}{74}{subsection.7.2.1}\protected@file@percent }
\newlabel{eqBeta}{{7.1}{74}{Algorithme Proposé}{equation.7.2.1}{}} 15 16 \newlabel{eqBeta}{{7.1}{74}{Algorithme Proposé}{equation.7.2.1}{}}
\citation{Arthurs} 16 17 \citation{Arthurs}
\@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du système de recommandation proposé\relax }}{75}{table.caption.45}\protected@file@percent } 17 18 \@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du système de recommandation proposé\relax }}{75}{table.caption.45}\protected@file@percent }
\newlabel{tabPar}{{7.1}{75}{Variables et paramètres du système de recommandation proposé\relax }{table.caption.45}{}} 18 19 \newlabel{tabPar}{{7.1}{75}{Variables et paramètres du système de recommandation proposé\relax }{table.caption.45}{}}
\newlabel{eqsGT}{{7.2}{75}{Algorithme Proposé}{equation.7.2.2}{}} 19 20 \newlabel{eqsGT}{{7.2}{75}{Algorithme Proposé}{equation.7.2.2}{}}
\newlabel{eqgtc}{{7.3}{75}{Algorithme Proposé}{equation.7.2.3}{}} 20 21 \newlabel{eqgtc}{{7.3}{75}{Algorithme Proposé}{equation.7.2.3}{}}
\newlabel{eqltc}{{7.4}{75}{Algorithme Proposé}{equation.7.2.4}{}} 21 22 \newlabel{eqltc}{{7.4}{75}{Algorithme Proposé}{equation.7.2.4}{}}
\@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Algorithme de recommandation stochastique\relax }}{76}{algorithm.1}\protected@file@percent } 22 23 \@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Algorithme de recommandation stochastique\relax }}{76}{algorithm.1}\protected@file@percent }
\newlabel{alg2}{{1}{76}{Algorithme de recommandation stochastique\relax }{algorithm.1}{}} 23 24 \newlabel{alg2}{{1}{76}{Algorithme de recommandation stochastique\relax }{algorithm.1}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent } 24 25 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des données utilisées pour l'évaluation\relax }}{76}{table.caption.47}\protected@file@percent } 25 26 \@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des données utilisées pour l'évaluation\relax }}{76}{table.caption.47}\protected@file@percent }
\newlabel{tabDataSet}{{7.2}{76}{Description des données utilisées pour l'évaluation\relax }{table.caption.47}{}} 26 27 \newlabel{tabDataSet}{{7.2}{76}{Description des données utilisées pour l'évaluation\relax }{table.caption.47}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios évalués\relax }}{76}{table.caption.48}\protected@file@percent } 27 28 \@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios évalués\relax }}{76}{table.caption.48}\protected@file@percent }
\newlabel{tabgm1}{{7.3}{76}{Valeurs des paramètres pour les scénarios évalués\relax }{table.caption.48}{}} 28 29 \newlabel{tabgm1}{{7.3}{76}{Valeurs des paramètres pour les scénarios évalués\relax }{table.caption.48}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Répartition des notes générées selon le niveau de complexité.\relax }}{77}{figure.caption.46}\protected@file@percent } 29 30 \@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Répartition des notes générées selon le niveau de complexité.\relax }}{77}{figure.caption.46}\protected@file@percent }
\newlabel{figData}{{7.1}{77}{Répartition des notes générées selon le niveau de complexité.\relax }{figure.caption.46}{}} 30 31 \newlabel{figData}{{7.1}{77}{Répartition des notes générées selon le niveau de complexité.\relax }{figure.caption.46}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{78}{figure.caption.49}\protected@file@percent } 31 32 \@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{78}{figure.caption.49}\protected@file@percent }
\newlabel{figCmp2}{{7.2}{78}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.49}{}} 32 33 \newlabel{figCmp2}{{7.2}{78}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.49}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{79}{figure.caption.50}\protected@file@percent } 33 34 \@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{79}{figure.caption.50}\protected@file@percent }
\newlabel{figCmp3}{{7.3}{79}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.50}{}} 34 35 \newlabel{figCmp3}{{7.3}{79}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.50}{}}
\newlabel{eqMetric1}{{7.5}{79}{Résultats}{equation.7.2.5}{}} 35 36 \newlabel{eqMetric1}{{7.5}{79}{Résultats}{equation.7.2.5}{}}
\newlabel{eqMetric2}{{7.6}{79}{Résultats}{equation.7.2.6}{}} 36 37 \newlabel{eqMetric2}{{7.6}{79}{Résultats}{equation.7.2.6}{}}
\newlabel{eqXc}{{7.7}{79}{Résultats}{equation.7.2.7}{}} 37 38 \newlabel{eqXc}{{7.7}{79}{Résultats}{equation.7.2.7}{}}
\newlabel{eqYc}{{7.8}{79}{Résultats}{equation.7.2.8}{}} 38 39 \newlabel{eqYc}{{7.8}{79}{Résultats}{equation.7.2.8}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{80}{figure.caption.51}\protected@file@percent } 39 40 \@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{80}{figure.caption.51}\protected@file@percent }
\newlabel{figCmp4}{{7.4}{80}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.51}{}} 40 41 \newlabel{figCmp4}{{7.4}{80}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.51}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)\relax }}{80}{table.caption.53}\protected@file@percent } 41 42 \@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)\relax }}{80}{table.caption.53}\protected@file@percent }
\newlabel{tabRM}{{7.4}{80}{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)\relax }{table.caption.53}{}} 42 43 \newlabel{tabRM}{{7.4}{80}{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)\relax }{table.caption.53}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Fonction d'évaluation de la qualité de la recommandation pour un parcours standard\relax }}{81}{figure.caption.52}\protected@file@percent } 43 44 \@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Fonction d'évaluation de la qualité de la recommandation pour un parcours standard\relax }}{81}{figure.caption.52}\protected@file@percent }
\newlabel{figMetric}{{7.5}{81}{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard\relax }{figure.caption.52}{}} 44 45 \newlabel{figMetric}{{7.5}{81}{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard\relax }{figure.caption.52}{}}
\newlabel{eqMetricS1}{{7.9}{81}{Résultats}{equation.7.2.9}{}} 45 46 \newlabel{eqMetricS1}{{7.9}{81}{Résultats}{equation.7.2.9}{}}
\newlabel{eqMetricS2}{{7.10}{81}{Résultats}{equation.7.2.10}{}} 46 47 \newlabel{eqMetricS2}{{7.10}{81}{Résultats}{equation.7.2.10}{}}
\newlabel{eqCS}{{7.11}{81}{Résultats}{equation.7.2.11}{}} 47 48 \newlabel{eqCS}{{7.11}{81}{Résultats}{equation.7.2.11}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusion}{81}{subsection.7.2.3}\protected@file@percent } 48 49 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusion}{81}{subsection.7.2.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }}{82}{figure.caption.54}\protected@file@percent } 49 50 \@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }}{82}{figure.caption.54}\protected@file@percent }
\newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }{figure.caption.54}{}} 50 51 \newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }{figure.caption.54}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }}{82}{table.caption.55}\protected@file@percent } 51 52 \@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }}{82}{table.caption.55}\protected@file@percent }
\newlabel{tabRM2}{{7.5}{82}{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }{table.caption.55}{}} 52 53 \newlabel{tabRM2}{{7.5}{82}{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }{table.caption.55}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }}{82}{table.caption.56}\protected@file@percent } 53 54 \@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }}{82}{table.caption.56}\protected@file@percent }
\newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }{table.caption.56}{}} 54 55 \newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }{table.caption.56}{}}
\@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}\protected@file@percent } 55 56 \@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}\protected@file@percent }
\citation{jmse11050890} 56 57 \citation{jmse11050890}
\citation{ZHANG2018189} 57 58 \citation{ZHANG2018189}
\citation{NEURIPS2023_9d8cf124} 58 59 \citation{NEURIPS2023_9d8cf124}
\citation{pmlr-v238-ou24a} 59 60 \citation{pmlr-v238-ou24a}
\citation{math12111758} 60 61 \citation{math12111758}
\citation{NGUYEN2024111566} 61 62 \citation{NGUYEN2024111566}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent } 62 63 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent }
\newlabel{eqbkt1}{{7.12}{84}{Concepts Associés}{equation.7.3.12}{}} 63 64 \newlabel{eqbkt1}{{7.12}{84}{Concepts Associés}{equation.7.3.12}{}}
\newlabel{eqbkt2}{{7.13}{84}{Concepts Associés}{equation.7.3.13}{}} 64 65 \newlabel{eqbkt2}{{7.13}{84}{Concepts Associés}{equation.7.3.13}{}}
\newlabel{eqbkt3}{{7.14}{84}{Concepts Associés}{equation.7.3.14}{}} 65 66 \newlabel{eqbkt3}{{7.14}{84}{Concepts Associés}{equation.7.3.14}{}}
\citation{Li_2024} 66 67 \citation{Li_2024}
\newlabel{fbeta}{{7.15}{85}{Concepts Associés}{equation.7.3.15}{}} 67 68 \newlabel{fbeta}{{7.15}{85}{Concepts Associés}{equation.7.3.15}{}}
\newlabel{eqGamma1}{{7.16}{85}{Concepts Associés}{equation.7.3.16}{}} 68 69 \newlabel{eqGamma1}{{7.16}{85}{Concepts Associés}{equation.7.3.16}{}}
\newlabel{f2beta}{{7.17}{85}{Concepts Associés}{equation.7.3.17}{}} 69 70 \newlabel{f2beta}{{7.17}{85}{Concepts Associés}{equation.7.3.17}{}}
\newlabel{f3Beta}{{7.18}{85}{Concepts Associés}{equation.7.3.18}{}} 70 71 \newlabel{f3Beta}{{7.18}{85}{Concepts Associés}{equation.7.3.18}{}}
\newlabel{eqJac}{{7.19}{85}{Concepts Associés}{equation.7.3.19}{}} 71 72 \newlabel{eqJac}{{7.19}{85}{Concepts Associés}{equation.7.3.19}{}}
\newlabel{f4Beta}{{7.20}{85}{Concepts Associés}{equation.7.3.20}{}} 72 73 \newlabel{f4Beta}{{7.20}{85}{Concepts Associés}{equation.7.3.20}{}}
\newlabel{f5Beta}{{7.21}{85}{Concepts Associés}{equation.7.3.21}{}} 73 74 \newlabel{f5Beta}{{7.21}{85}{Concepts Associés}{equation.7.3.21}{}}
\newlabel{f6Beta}{{7.22}{85}{Concepts Associés}{equation.7.3.22}{}} 74 75 \newlabel{f6Beta}{{7.22}{85}{Concepts Associés}{equation.7.3.22}{}}
\newlabel{f7Beta}{{7.23}{85}{Concepts Associés}{equation.7.3.23}{}} 75 76 \newlabel{f7Beta}{{7.23}{85}{Concepts Associés}{equation.7.3.23}{}}
\citation{Kim2024} 76 77 \citation{Kim2024}
\citation{10.1145/3578337.3605122} 77 78 \citation{10.1145/3578337.3605122}
\citation{lei2024analysis} 78 79 \citation{lei2024analysis}
\newlabel{dkl}{{7.24}{86}{Concepts Associés}{equation.7.3.24}{}} 79 80 \newlabel{dkl}{{7.24}{86}{Concepts Associés}{equation.7.3.24}{}}
\newlabel{djs}{{7.25}{86}{Concepts Associés}{equation.7.3.25}{}} 80 81 \newlabel{djs}{{7.25}{86}{Concepts Associés}{equation.7.3.25}{}}
\newlabel{djs2}{{7.26}{86}{Concepts Associés}{equation.7.3.26}{}} 81 82 \newlabel{djs2}{{7.26}{86}{Concepts Associés}{equation.7.3.26}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Algorithme Proposé}{86}{subsection.7.3.2}\protected@file@percent } 82 83 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Algorithme Proposé}{86}{subsection.7.3.2}\protected@file@percent }
\newlabel{Sec:TS-ESCBR-SMA}{{7.3.2}{86}{Algorithme Proposé}{subsection.7.3.2}{}} 83 84 \newlabel{Sec:TS-ESCBR-SMA}{{7.3.2}{86}{Algorithme Proposé}{subsection.7.3.2}{}}
\citation{badier:hal-04092828} 84 85 \citation{badier:hal-04092828}
\@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture de l'algorithme proposé\relax }}{87}{figure.caption.57}\protected@file@percent } 85 86 \@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture de l'algorithme proposé\relax }}{87}{figure.caption.57}\protected@file@percent }
\newlabel{fig:Amodel}{{7.7}{87}{Schéma de l'architecture de l'algorithme proposé\relax }{figure.caption.57}{}} 86 87 \newlabel{fig:Amodel}{{7.7}{87}{Schéma de l'architecture de l'algorithme proposé\relax }{figure.caption.57}{}}
\newlabel{IntEq1_}{{7.27}{87}{Algorithme Proposé}{equation.7.3.27}{}} 87 88 \newlabel{IntEq1_}{{7.27}{87}{Algorithme Proposé}{equation.7.3.27}{}}
\newlabel{IntEq2_}{{7.28}{87}{Algorithme Proposé}{equation.7.3.28}{}} 88 89 \newlabel{IntEq2_}{{7.28}{87}{Algorithme Proposé}{equation.7.3.28}{}}
\newlabel{eqMixModels_}{{7.29}{87}{Algorithme Proposé}{equation.7.3.29}{}} 89 90 \newlabel{eqMixModels_}{{7.29}{87}{Algorithme Proposé}{equation.7.3.29}{}}
\citation{Data} 90 91 \citation{Data}
\citation{doi:10.1137/23M1592420} 91 92 \citation{doi:10.1137/23M1592420}
\@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées\relax }}{88}{table.caption.58}\protected@file@percent } 92 93 \@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées\relax }}{88}{table.caption.58}\protected@file@percent }
\newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées\relax }{table.caption.58}{}} 93 94 \newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées\relax }{table.caption.58}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}\protected@file@percent } 94 95 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}{88}{subsubsection.7.3.3.1}\protected@file@percent } 95 96 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}{88}{subsubsection.7.3.3.1}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios\relax }}{89}{table.caption.59}\protected@file@percent } 96 97 \@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios\relax }}{89}{table.caption.59}\protected@file@percent }
\newlabel{tab:scenarios}{{7.8}{89}{Description des scénarios\relax }{table.caption.59}{}} 97 98 \newlabel{tab:scenarios}{{7.8}{89}{Description des scénarios\relax }{table.caption.59}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués \relax }}{89}{table.caption.60}\protected@file@percent } 98 99 \@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués \relax }}{89}{table.caption.60}\protected@file@percent }
\newlabel{tabAlgs}{{7.9}{89}{Liste des algorithmes évalués \relax }{table.caption.60}{}} 99 100 \newlabel{tabAlgs}{{7.9}{89}{Liste des algorithmes évalués \relax }{table.caption.60}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{89}{subsubsection.7.3.3.2}\protected@file@percent } 100 101 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{89}{subsubsection.7.3.3.2}\protected@file@percent }
\citation{Kuzilek2017} 101 102 \citation{Kuzilek2017}
\citation{Data} 102 103 \citation{Data}
\@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.\relax }}{90}{table.caption.61}\protected@file@percent } 103 104 \@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.\relax }}{90}{table.caption.61}\protected@file@percent }
\newlabel{tab:results}{{7.10}{90}{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.\relax }{table.caption.61}{}} 104 105 \newlabel{tab:results}{{7.10}{90}{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.\relax }{table.caption.61}{}}
\newlabel{eqprog1}{{7.30}{90}{Progression des connaissances}{equation.7.3.30}{}} 105 106 \newlabel{eqprog1}{{7.30}{90}{Progression des connaissances}{equation.7.3.30}{}}
\newlabel{eqprog2}{{7.31}{90}{Progression des connaissances}{equation.7.3.31}{}} 106 107 \newlabel{eqprog2}{{7.31}{90}{Progression des connaissances}{equation.7.3.31}{}}
\newlabel{eqVarP}{{7.32}{90}{Progression des connaissances}{equation.7.3.32}{}} 107 108 \newlabel{eqVarP}{{7.32}{90}{Progression des connaissances}{equation.7.3.32}{}}
\newlabel{eqTEK}{{7.33}{90}{Progression des connaissances}{equation.7.3.33}{}} 108 109 \newlabel{eqTEK}{{7.33}{90}{Progression des connaissances}{equation.7.3.33}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{91}{figure.caption.62}\protected@file@percent } 109 110 \@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{91}{figure.caption.62}\protected@file@percent }
\newlabel{fig:evolution}{{7.8}{91}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.62}{}} 110 111 \newlabel{fig:evolution}{{7.8}{91}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.62}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'étudiants réels}{91}{subsubsection.7.3.3.3}\protected@file@percent } 111 112 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'apprenants réels}{91}{subsubsection.7.3.3.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Nombre de recommandations par niveau de complexité\relax }}{92}{figure.caption.63}\protected@file@percent } 112 113 \@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Nombre de recommandations par niveau de complexité\relax }}{92}{figure.caption.63}\protected@file@percent }
\newlabel{fig:stabilityBP}{{7.9}{92}{Nombre de recommandations par niveau de complexité\relax }{figure.caption.63}{}} 113 114 \newlabel{fig:stabilityBP2}{{7.9}{92}{Nombre de recommandations par niveau de complexité\relax }{figure.caption.63}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}\protected@file@percent } 114 115 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Précision de la recommandation\relax }}{93}{figure.caption.64}\protected@file@percent } 115 116 \@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Précision de la recommandation\relax }}{93}{figure.caption.64}\protected@file@percent }
\newlabel{fig:precision}{{7.10}{93}{Précision de la recommandation\relax }{figure.caption.64}{}} 116 117 \newlabel{fig:precision}{{7.10}{93}{Précision de la recommandation\relax }{figure.caption.64}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent } 117 118 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}\protected@file@percent } 118 119 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.\relax }}{94}{figure.caption.65}\protected@file@percent } 119 120 \@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.\relax }}{94}{figure.caption.65}\protected@file@percent }
\newlabel{fig:EvGrades}{{7.11}{94}{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.\relax }{figure.caption.65}{}} 120 121 \newlabel{fig:EvGrades}{{7.11}{94}{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.\relax }{figure.caption.65}{}}
\newlabel{eqjs4}{{7.34}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.34}{}} 121 122 \newlabel{eqjs4}{{7.34}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.34}{}}
\newlabel{eqjs5}{{7.35}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.35}{}} 122 123 \newlabel{eqjs5}{{7.35}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.35}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }}{95}{figure.caption.66}\protected@file@percent } 123 124 \@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }}{95}{figure.caption.66}\protected@file@percent }
\newlabel{fig:EvCL}{{7.12}{95}{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }{figure.caption.66}{}} 124 125 \newlabel{fig:EvCL}{{7.12}{95}{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }{figure.caption.66}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}\protected@file@percent } 125 126 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}\protected@file@percent }
\citation{10.1145/3578337.3605122} 126 127 \citation{10.1145/3578337.3605122}
\@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }}{96}{figure.caption.67}\protected@file@percent } 127 128 \@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }}{96}{figure.caption.67}\protected@file@percent }
\newlabel{fig_cmp2}{{7.13}{96}{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }{figure.caption.67}{}} 128 129 \newlabel{fig_cmp2}{{7.13}{96}{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }{figure.caption.67}{}}
\@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}\protected@file@percent } 129 130 \@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}\protected@file@percent } 130 131 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }}{97}{figure.caption.68}\protected@file@percent } 131 132 \@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }}{97}{figure.caption.68}\protected@file@percent }
\newlabel{fig:Amodel}{{7.14}{97}{Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }{figure.caption.68}{}} 132 133 \newlabel{fig:Amodel2}{{7.14}{97}{Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }{figure.caption.68}{}}
\newlabel{hp1}{{7.36}{97}{Algorithme Proposé}{equation.7.4.36}{}} 133 134 \newlabel{hp1}{{7.36}{97}{Algorithme Proposé}{equation.7.4.36}{}}
\newlabel{hp21}{{7.37}{97}{Algorithme Proposé}{equation.7.4.37}{}} 134 135 \newlabel{hp21}{{7.37}{97}{Algorithme Proposé}{equation.7.4.37}{}}
\citation{Kuzilek2017} 135 136 \citation{Kuzilek2017}
\citation{Data} 136 137 \citation{Data}
\newlabel{hp22}{{7.38}{98}{Algorithme Proposé}{equation.7.4.38}{}} 137 138 \newlabel{hp22}{{7.38}{98}{Algorithme Proposé}{equation.7.4.38}{}}
\newlabel{hp30}{{7.39}{98}{Algorithme Proposé}{equation.7.4.39}{}} 138 139 \newlabel{hp30}{{7.39}{98}{Algorithme Proposé}{equation.7.4.39}{}}
\newlabel{hp31}{{7.40}{98}{Algorithme Proposé}{equation.7.4.40}{}} 139 140 \newlabel{hp31}{{7.40}{98}{Algorithme Proposé}{equation.7.4.40}{}}
\newlabel{hpfa}{{7.41}{98}{Algorithme Proposé}{equation.7.4.41}{}} 140 141 \newlabel{hpfa}{{7.41}{98}{Algorithme Proposé}{equation.7.4.41}{}}
\newlabel{hpfb}{{7.42}{98}{Algorithme Proposé}{equation.7.4.42}{}} 141 142 \newlabel{hpfb}{{7.42}{98}{Algorithme Proposé}{equation.7.4.42}{}}
\newlabel{eqBetaH}{{7.43}{98}{Algorithme Proposé}{equation.7.4.43}{}} 142 143 \newlabel{eqBetaH}{{7.43}{98}{Algorithme Proposé}{equation.7.4.43}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}\protected@file@percent } 143 144 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec un jeu de données d'étudiants réels (TS avec Hawkes)}{98}{subsubsection.7.4.2.1}\protected@file@percent } 144
\@writefile{lof}{\contentsline {figure}{\numberline {7.15}{\ignorespaces Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }}{99}{figure.caption.69}\protected@file@percent } 145 145 \@writefile{lof}{\contentsline {figure}{\numberline {7.15}{\ignorespaces Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }}{99}{figure.caption.69}\protected@file@percent }
\newlabel{fig:stabilityBP}{{7.15}{99}{Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }{figure.caption.69}{}} 146 146 \newlabel{fig:stabilityBP}{{7.15}{99}{Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }{figure.caption.69}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Mesures de performances}{100}{subsubsection.7.4.2.2}\protected@file@percent } 147 147 \newlabel{metric1}{{7.44}{100}{Résultats et Discussion}{equation.7.4.44}{}}
\newlabel{metric1}{{7.44}{100}{Mesures de performances}{equation.7.4.44}{}} 148
\@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }}{100}{table.caption.70}\protected@file@percent } 149 148 \@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }}{100}{table.caption.70}\protected@file@percent }
\newlabel{tab:my_label}{{7.11}{100}{Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }{table.caption.70}{}} 150 149 \newlabel{tab:my_label}{{7.11}{100}{Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }{table.caption.70}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}\protected@file@percent } 151 150 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.16}{\ignorespaces Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{101}{figure.caption.71}\protected@file@percent } 152 151 \@writefile{lof}{\contentsline {figure}{\numberline {7.16}{\ignorespaces Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{101}{figure.caption.71}\protected@file@percent }
\newlabel{fig:vars}{{7.16}{101}{Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.71}{}} 153 152 \newlabel{fig:vars}{{7.16}{101}{Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.71}{}}
\@setckpt{./chapters/TS}{ 154 153 \@setckpt{./chapters/TS}{
\setcounter{page}{103} 155 154 \setcounter{page}{102}
\setcounter{equation}{44} 156 155 \setcounter{equation}{44}
\setcounter{enumi}{0} 157 156 \setcounter{enumi}{0}
\setcounter{enumii}{0} 158 157 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 159 158 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 160 159 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 161 160 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 162 161 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 163 162 \setcounter{part}{3}
\setcounter{chapter}{7} 164 163 \setcounter{chapter}{7}
\setcounter{section}{4} 165 164 \setcounter{section}{4}
\setcounter{subsection}{3} 166 165 \setcounter{subsection}{3}
\setcounter{subsubsection}{0} 167 166 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 168 167 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 169 168 \setcounter{subparagraph}{0}
\setcounter{figure}{16} 170 169 \setcounter{figure}{16}
\setcounter{table}{11} 171 170 \setcounter{table}{11}
\setcounter{caption@flags}{2} 172 171 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 173 172 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 174 173 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 175 174 \setcounter{subtable}{0}
\setcounter{parentequation}{0} 176 175 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 177 176 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 178 177 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 179 178 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 180 179 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{2} 181 180 \setcounter{upm@format@section@sectionlevel}{2}
\setcounter{upm@fmt@savedcounter}{0} 182 181 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 183 182 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 184 183 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 185 184 \setcounter{upmdefinition}{0}
\setcounter{section@level}{2} 186 185 \setcounter{section@level}{2}
\setcounter{Item}{0} 187 186 \setcounter{Item}{0}
\setcounter{Hfootnote}{0} 188 187 \setcounter{Hfootnote}{0}
\setcounter{bookmark@seq@number}{89} 189 188 \setcounter{bookmark@seq@number}{87}
\setcounter{DefaultLines}{2} 190 189 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 191 190 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 192 191 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 193 192 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 194 193 \setcounter{float@type}{8}
\setcounter{algorithm}{1} 195 194 \setcounter{algorithm}{1}
\setcounter{ALG@line}{8} 196 195 \setcounter{ALG@line}{8}
\setcounter{ALG@rem}{8} 197 196 \setcounter{ALG@rem}{8}
\setcounter{ALG@nested}{0} 198 197 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 199 198 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 200 199 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 201 200 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 202 201 \setcounter{ALG@tmpcounter}{0}
} 203 202 }
204 203
chapters/TS.tex View file @ 4b1afa3
\chapter{Système de Recommandation dans AI-VT} 1 1 \chapter{Système de Recommandation dans AI-VT}\label{chap:RecommandationAIVT}
2 2
\section{Introduction} 3 3 \section{Introduction}
4 4
L'un des principaux modules d'un EIAH est le système de recommandation visant à trouver les faiblesses et à réviser la séance d'entraînement proposée initialement par celui-ci. Ce type de module permet donc au système de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants. Certains auteurs n'hésitent pas à considérer que l'efficacité d'un EIAH dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce type de module fondé sur la recommandation \cite{Liu2023}. 5 5 L'un des principaux modules d'un EIAH est le système de recommandation visant à trouver les faiblesses et à réviser la séance d'entraînement proposée initialement par celui-ci. Ce type de module permet donc au système de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants. Certains auteurs n'hésitent pas à considérer que l'efficacité d'un EIAH dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce type de module fondé sur la recommandation \cite{Liu2023}.
6 6
Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les acquis, compétences, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices. Dans ces systèmes, l'adaptation peut être de deux types : l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et/ou l'adaptation du parcours qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}. 7 7 Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les acquis, compétences, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices. Dans ces systèmes, l'adaptation peut être de deux types : l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et/ou l'adaptation du parcours qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}.
8 8
Parmi les algorithmes les plus prometteurs pouvant aider à proposer des recommandations, nous avons identifié l'algorithme d'échantillonnage de Thompson (TS). Il s'agit d'un algorithme probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement. À l'instant $t$, TS choisit l'action $a_t$ d'un ensemble $A$ d'actions possibles, et obtient une récompense pour celle-ci. À $t+1$, une action $a_{t+1}$ est sélectionnée en tenant compte de la récompense précédente. L'objectif consiste à maximiser la récompense. Selon le principe bayésien, cette maximisation itérative est opérée en suivant une distribution de probabilité évoluant à chaque itération. Cette évolution peut être calculée selon la variante de Bernoulli où la récompense n'a que deux valeurs possibles 0 ou 1 (échec ou succès), ou selon une distribution \textit{Beta} définie sur l'intervalle $[0, 1]$ et calculée en fonction de deux valeurs $\alpha$ et $\beta$ \cite{9870279}. 9 9 Parmi les algorithmes les plus prometteurs pouvant aider à proposer des recommandations, nous avons identifié l'algorithme d'échantillonnage de Thompson (TS). Il s'agit d'un algorithme probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement. À l'instant $t$, TS choisit l'action $a_t$ d'un ensemble $A$ d'actions possibles, et obtient une récompense pour celle-ci. À $t+1$, une action $a_{t+1}$ est sélectionnée en tenant compte de la récompense précédente. L'objectif consiste à maximiser la récompense. Selon le principe bayésien, cette maximisation itérative est opérée en suivant une distribution de probabilité évoluant à chaque itération. Cette évolution peut être calculée selon la variante de Bernoulli où la récompense n'a que deux valeurs possibles 0 ou 1 (échec ou succès), ou selon une distribution \textit{Beta} définie sur l'intervalle $[0, 1]$ et calculée en fonction de deux valeurs $\alpha$ et $\beta$ \cite{9870279}.
10 10
Ce chapitre est divisé en trois parties, la première partie présente un algorithme délivrant des recommandations en fonction des résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans \cite{Soto2}. Cet algorithme permet l'adaptation automatique en temps réel d'une séance prédéterminée dans l'EIAH AI-VT. Nous considérons qu'elle intervient durant la phase de révision du cycle classique du raisonnement à partir de cas (RàPC). L'algorithme proposé est stochastique et il a été testé selon trois scénarios différents. Les résultats montrent de quelle manière AI-VT peut proposer des recommandations pertinentes selon les faiblesses identifiées de l'apprenant. 11 11 Ce chapitre est divisé en trois parties, la première partie présente un algorithme délivrant des recommandations en fonction des résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans \cite{Soto2}. Cet algorithme permet l'adaptation automatique en temps réel d'une séance prédéterminée dans l'EIAH AI-VT. Nous considérons qu'elle intervient durant la phase de révision du cycle classique du raisonnement à partir de cas (RàPC). L'algorithme proposé est stochastique et il a été testé selon trois scénarios différents. Les résultats montrent de quelle manière AI-VT peut proposer des recommandations pertinentes selon les faiblesses identifiées de l'apprenant.
12 12
La deuxième partie de ce chapitre montre l'intégration de tous les algorithmes présentés dans les chapitres précédents à AI-VT, cette proposition est publié dans \cite{soto4}. L'algorithme intégré est appliqué au système AI-VT sur des données générées et des données réelles. Plusieurs types de test sont exécutés pour montrer que l'algorithme final permet en effet d'améliorer les capacités d'identification et d'adaptation. Les performances de ce nouveau algorithme sont comparées à celles d'autres algorithmes. Enfin, l'évolution de l'acquisition des connaissances induites par ces nouveaux algorithmes de recommandation stochastiques est analysée dans cette deuxième partie du présent chapitre. 13 13 La deuxième partie de ce chapitre montre l'intégration de tous les algorithmes présentés dans les chapitres précédents à AI-VT, cette proposition est publié dans \cite{soto4}. L'algorithme intégré est appliqué au système AI-VT sur des données générées et des données réelles. Plusieurs types de test sont exécutés pour montrer que l'algorithme final permet en effet d'améliorer les capacités d'identification et d'adaptation. Les performances de ce nouvel algorithme sont comparées à celles d'autres algorithmes. Enfin, l'évolution de l'acquisition des connaissances induites par ces nouveaux algorithmes de recommandation stochastiques est analysée dans cette deuxième partie du présent chapitre.
14 14
Pour terminer, dans la troisième partie de ce chapitre, nous présentons une évolution de ce système de recommandation intégrant le processus de Hawkes publié dans \cite{soto5}. L'intérêt de ce dernier réside dans le fait qu'il utilise une courbe d'oubli, nous permettant ainsi de tenir compte du fait que certaines connaissances et certains mécanismes doivent être rappelés aux apprenants. Cette troisième partie intègre une étude des performances du système de recommandation incluant ce processus stochastique de Hawkes. 15 15 Pour terminer, dans la troisième partie de ce chapitre, nous présentons une évolution de ce système de recommandation intégrant le processus de Hawkes publié dans \cite{soto5}. L'intérêt de ce dernier réside dans le fait qu'il utilise une courbe d'oubli, nous permettant ainsi de tenir compte du fait que certaines connaissances et certains mécanismes doivent être rappelés aux apprenants. Cette troisième partie intègre une étude des performances du système de recommandation incluant ce processus stochastique de Hawkes.
16 16
\section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson} 17 17 \section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}
\sectionmark{Système de recommandation fondé sur TS} 18 18 \sectionmark{Système de recommandation fondé sur TS}
19 19
\subsection{Algorithme Proposé} 20 20 \subsection{Algorithme Proposé}
21 21
L'algorithme proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT. Puis il adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. 22 22 L'algorithme proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT. Puis il adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie.
23 23
La famille de distributions de probabilité \textit{Beta} est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur). 24 24 La famille de distributions de probabilité \textit{Beta} est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur).
25 25
\begin{equation} 26 26 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} 27 27 Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{eqBeta} 28 28 \label{eqBeta}
\end{equation} 29 29 \end{equation}
30 30
\begin{table}[!ht] 31 31 \begin{table}[!ht]
\centering 32 32 \centering
\begin{tabular}{ccc} 33 33 \begin{tabular}{ccc}
ID&Description&Domaine\\ 34 34 ID&Description&Domaine\\
\hline 35 35 \hline
$c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\ 36 36 $c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\
$g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\ 37 37 $g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\
$g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\ 38 38 $g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\
$s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\ 39 39 $s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\
$s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\ 40 40 $s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\
$\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\ 41 41 $\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\
$t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\ 42 42 $t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\
$g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\ 43 43 $g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\
$ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\ 44 44 $ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\
$t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\ 45 45 $t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\
$ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\ 46 46 $ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\
$\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\ 47 47 $\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\
$\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\ 48 48 $\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\
$\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\ 49 49 $\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\
$\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\ 50 50 $\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\
$G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\ 51 51 $G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\
$x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\ 52 52 $x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\
$n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\ 53 53 $n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\
$ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\ 54 54 $ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\
$y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\ 55 55 $y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\
$r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\ 56 56 $r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\
$sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\ 57 57 $sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\
\end{tabular} 58 58 \end{tabular}
\caption{Variables et paramètres du système de recommandation proposé} 59 59 \caption{Variables et paramètres du système de recommandation proposé}
\label{tabPar} 60 60 \label{tabPar}
\end{table} 61 61 \end{table}
62 62
Le tableau \ref{tabPar} présente les variables de l'algorithme de recommandation. Nous avons considéré que les notes $g_c$ obtenues au niveau de complexité $c$ tiennent compte du temps de réponse. C'est la raison pour laquelle, nous avons défini le grade de l'apprenant $ng_c$ au niveau de complexité $c$. Ce grade calculé selon l'équation \ref{eqsGT}, tient compte d'un poids de pénalisation temporelle $\lambda$. 63 63 Le tableau \ref{tabPar} présente les variables de l'algorithme de recommandation. Nous avons considéré que les notes $g_c$ obtenues au niveau de complexité $c$ tiennent compte du temps de réponse. C'est la raison pour laquelle, nous avons défini le grade de l'apprenant $ng_c$ au niveau de complexité $c$. Ce grade calculé selon l'équation \ref{eqsGT}, tient compte d'un poids de pénalisation temporelle $\lambda$.
64 64
\begin{equation} 65 65 \begin{equation}
ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right) 66 66 ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right)
\label{eqsGT} 67 67 \label{eqsGT}
\end{equation} 68 68 \end{equation}
69 69
Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité \textit{Beta} avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies. 70 70 Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité \textit{Beta} avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies.
71 71
\begin{equation} 72 72 \begin{equation}
ng_c \ge g_t \rightarrow 73 73 ng_c \ge g_t \rightarrow
\begin{cases} 74 74 \begin{cases}
\beta_c=\beta_c+\Delta_s\\ 75 75 \beta_c=\beta_c+\Delta_s\\
\beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\ 76 76 \beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\
\alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2} 77 77 \alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2}
\end{cases} 78 78 \end{cases}
\label{eqgtc} 79 79 \label{eqgtc}
\end{equation} 80 80 \end{equation}
81 81
\begin{equation} 82 82 \begin{equation}
ng_c < g_t \rightarrow 83 83 ng_c < g_t \rightarrow
\begin{cases} 84 84 \begin{cases}
\alpha_c=\alpha_c+\Delta_s\\ 85 85 \alpha_c=\alpha_c+\Delta_s\\
\alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\ 86 86 \alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\
\beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2} 87 87 \beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2}
\end{cases} 88 88 \end{cases}
\label{eqltc} 89 89 \label{eqltc}
\end{equation} 90 90 \end{equation}
91 91
Pour chaque niveau de complexité $c$, $Beta(\alpha_c, \beta_c)$ fournit une distribution de probabilité $\theta_c$ dont nous calculons l'espérance $\mathbb{E}[\theta_c]$. Le nouveau niveau de complexité $ncl$ correspond à l'espérance maximale obtenue. 92 92 Pour chaque niveau de complexité $c$, $Beta(\alpha_c, \beta_c)$ fournit une distribution de probabilité $\theta_c$ dont nous calculons l'espérance $\mathbb{E}[\theta_c]$. Le nouveau niveau de complexité $ncl$ correspond à l'espérance maximale obtenue.
93 93
Le détail des pas d'exécution de l'algorithme proposé sont dans l'algorithme \ref{alg2}. 94 94 Le détail des pas d'exécution de l'algorithme proposé sont dans l'algorithme \ref{alg2}.
95 95
\begin{algorithm} 96 96 \begin{algorithm}
\caption{Algorithme de recommandation stochastique} 97 97 \caption{Algorithme de recommandation stochastique}
\begin{algorithmic} 98 98 \begin{algorithmic}
\State Initialisation de la distribution de probabilité 99 99 \State Initialisation de la distribution de probabilité
\For {\textbf{each} question $q$} 100 100 \For {\textbf{each} question $q$}
\State Soit le niveau de complexité $i$ 101 101 \State Soit le niveau de complexité $i$
\State $ng_i=g_i- \left(g_i * \lambda * \frac{t_i}{t_m} \right)$ \Comment{eq \ref{eqsGT}} 102 102 \State $ng_i=g_i- \left(g_i * \lambda * \frac{t_i}{t_m} \right)$ \Comment{eq \ref{eqsGT}}
\State Calculs des paramètres $\alpha_i$ et $\beta_i$ \Comment{eq \ref{eqgtc} et eq \ref{eqltc}} 103 103 \State Calculs des paramètres $\alpha_i$ et $\beta_i$ \Comment{eq \ref{eqgtc} et eq \ref{eqltc}}
\State Choisir $\theta_c$ selon la distribution de probabilité \textit{Beta} \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$} 104 104 \State Choisir $\theta_c$ selon la distribution de probabilité \textit{Beta} \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$}
\State $ncl = max(\mathbb{E}[\theta_c]), \forall c$ 105 105 \State $ncl = max(\mathbb{E}[\theta_c]), \forall c$
\EndFor 106 106 \EndFor
\end{algorithmic} 107 107 \end{algorithmic}
\label{alg2} 108 108 \label{alg2}
\end{algorithm} 109 109 \end{algorithm}
110 110
\subsection{Résultats} 111 111 \subsection{Résultats}
112 112
Le comportement du module de recommandation a été testé avec des données générées contenant les notes et les temps de réponse de mille apprenants pour cinq niveaux de complexité différents. Ces données sont décrites dans le tableau \ref{tabDataSet}. Les notes des apprenants sont générées selon la loi de probabilité logit-normale considérée comme la plus fidèle dans ce contexte par \cite{Arthurs}. 113 113 Le comportement du module de recommandation a été testé avec des données générées contenant les notes et les temps de réponse de mille apprenants pour cinq niveaux de complexité différents. Ces données sont décrites dans le tableau \ref{tabDataSet}. Les notes des apprenants sont générées selon la loi de probabilité logit-normale considérée comme la plus fidèle dans ce contexte par \cite{Arthurs}.
114 114
L'ensemble de données générées résulte d'une simulation des notes obtenues par des apprenants virtuels ayant répondu à quinze questions réparties sur cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants sur les dix premières questions. La difficulté de la complexité est quant à elle simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la manière dont sont réparties les notes selon le niveau de complexité. 115 115 L'ensemble de données générées résulte d'une simulation des notes obtenues par des apprenants virtuels ayant répondu à quinze questions réparties sur cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants sur les dix premières questions. La difficulté de la complexité est quant à elle simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la manière dont sont réparties les notes selon le niveau de complexité.
116 116
\begin{figure} 117 117 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/dataset.png} 118 118 \includegraphics[width=\textwidth]{./Figures/dataset.png}
\caption{Répartition des notes générées selon le niveau de complexité.} 119 119 \caption{Répartition des notes générées selon le niveau de complexité.}
\label{figData} 120 120 \label{figData}
\end{figure} 121 121 \end{figure}
122 122
\begin{table}[!ht] 123 123 \begin{table}[!ht]
\centering 124 124 \centering
\begin{tabular}{ccc} 125 125 \begin{tabular}{ccc}
ID&Description&Domaine\\ 126 126 ID&Description&Domaine\\
\hline 127 127 \hline
$q_{c}$&Niveau de complexité de la question $q$&$[0, c_n] \in \mathbb{N}$\\ 128 128 $q_{c}$&Niveau de complexité de la question $q$&$[0, c_n] \in \mathbb{N}$\\
$q_{g,c}$&Note obtenue $g$ pour la question $q$ avec une complexité $c$ &$[0,g_m] \in \mathbb{R}$\\ 129 129 $q_{g,c}$&Note obtenue $g$ pour la question $q$ avec une complexité $c$ &$[0,g_m] \in \mathbb{R}$\\
$q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\ 130 130 $q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\
\end{tabular} 131 131 \end{tabular}
\caption{Description des données utilisées pour l'évaluation} 132 132 \caption{Description des données utilisées pour l'évaluation}
\label{tabDataSet} 133 133 \label{tabDataSet}
\end{table} 134 134 \end{table}
135 135
Toutes les valeurs des paramètres pour tester l'algorithme sont dans le tableau \ref{tabgm1}. 136 136 Toutes les valeurs des paramètres pour tester l'algorithme sont dans le tableau \ref{tabgm1}.
137 137
\begin{table}[!ht] 138 138 \begin{table}[!ht]
\centering 139 139 \centering
\begin{tabular}{c|cccccccccccccc} 140 140 \begin{tabular}{c|cccccccccccccc}
ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\ 141 141 ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\
\hline 142 142 \hline
Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\ 143 143 Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\
\end{tabular} 144 144 \end{tabular}
\caption{Valeurs des paramètres pour les scénarios évalués} 145 145 \caption{Valeurs des paramètres pour les scénarios évalués}
\label{tabgm1} 146 146 \label{tabgm1}
\end{table} 147 147 \end{table}
148 148
La figure \ref{figCmp2} permet de comparer les résultats obtenus par le module proposé, un système de recommandation déterministe et le système AI-VT initial lors d'un \textit{démarrage à froid} (c'est-à-dire sans données historiques ni informations préalables sur le profil de l'apprenant). Sur les graphiques de cette figure, les numéros des questions posées sont reportées en abscisse selon l'ordre chronologique d'apparition durant la séance d’entraînement, le niveau de complexité de chaque question posée est représenté par une couleur différente, et le nombre d'apprenants ayant eu des questions de ce niveau de complexité sont reportés en ordonnées. Ainsi, le système AI-VT initial (premier graphique de la figure) et le système de recommandation déterministe (deuxième graphique) ont tous deux proposé trois questions de niveau de complexité 0 (le plus faible) à tous les apprenants au démarrage de la séance d'entraînement. Nous pouvons remarquer que le système initial est resté sur ce niveau de complexité durant toute la séance (pour les 15 questions du test), tandis que le système de recommandation déterministe a progressivement mixé les complexités des questions posées. Le système de recommandation stochastique décrit dans ce chapitre a quant à lui mixé ces niveaux de complexité dès la première question. 149 149 La figure \ref{figCmp2} permet de comparer les résultats obtenus par le module proposé, un système de recommandation déterministe et le système AI-VT initial lors d'un \textit{démarrage à froid} (c'est-à-dire sans données historiques ni informations préalables sur le profil de l'apprenant). Sur les graphiques de cette figure, les numéros des questions posées sont reportées en abscisse selon l'ordre chronologique d'apparition durant la séance d’entraînement, le niveau de complexité de chaque question posée est représenté par une couleur différente, et le nombre d'apprenants ayant eu des questions de ce niveau de complexité sont reportés en ordonnées. Ainsi, le système AI-VT initial (premier graphique de la figure) et le système de recommandation déterministe (deuxième graphique) ont tous deux proposé trois questions de niveau de complexité 0 (le plus faible) à tous les apprenants au démarrage de la séance d'entraînement. Nous pouvons remarquer que le système initial est resté sur ce niveau de complexité durant toute la séance (pour les 15 questions du test), tandis que le système de recommandation déterministe a progressivement mixé les complexités des questions posées. Le système de recommandation stochastique décrit dans ce chapitre a quant à lui mixé ces niveaux de complexité dès la première question.
150 150
Ainsi, les systèmes de recommandation permettent de proposer une adaptation progressive du niveau de complexité en fonction des notes obtenues. L'algorithme déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus. La tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. L'algorithme stochastique commence par proposer tous les niveaux de complexité possibles tout en privilégiant le niveau 0. Avec ce système, les transitions sont constantes mais pour un petit nombre d'apprenants. La tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. 151 151 Ainsi, les systèmes de recommandation permettent de proposer une adaptation progressive du niveau de complexité en fonction des notes obtenues. L'algorithme déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus. La tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. L'algorithme stochastique commence par proposer tous les niveaux de complexité possibles tout en privilégiant le niveau 0. Avec ce système, les transitions sont constantes mais pour un petit nombre d'apprenants. La tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3.
152 152
\begin{figure} 153 153 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp2.png} 154 154 \includegraphics[width=\textwidth]{./Figures/comp2.png}
\caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} 155 155 \caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)}
\label{figCmp2} 156 156 \label{figCmp2}
\end{figure} 157 157 \end{figure}
158 158
Après la génération de la première séance, le système peut continuer avec une deuxième liste d'exercices. Pour cette partie des tests, les trois algorithmes ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir que la première transition du système initial n'intervient qu'entre deux séances. Les transitions sont très lentes, et tous les apprenants doivent suivre un chemin identique même s'ils obtiennent des notes différentes au cours de celle-ci. 159 159 Après la génération de la première séance, le système peut continuer avec une deuxième liste d'exercices. Pour cette partie des tests, les trois algorithmes ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir que la première transition du système initial n'intervient qu'entre deux séances. Les transitions sont très lentes, et tous les apprenants doivent suivre un chemin identique même s'ils obtiennent des notes différentes au cours de celle-ci.
160 160
Pour leur part, les deux autres systèmes de recommandation testés proposent un fonctionnement différent. L'algorithme déterministe présente trois transitions aux questions 3, 5 et 12. Les tendances sont y relativement homogènes et progressives pour le niveau 3, très variables pour le niveau 2 et fortement décroissantes pour le niveau 0. L'algorithme stochastique quant à lui, propose des transitions douces mais il a tendance à toujours privilégier le niveau le plus faible. Nous pouvons observer une prépondérance du niveau 1 avec ce système. Ici, les niveaux 0 et 1 sont décroissants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. 161 161 Pour leur part, les deux autres systèmes de recommandation testés proposent un fonctionnement différent. L'algorithme déterministe présente trois transitions aux questions 3, 5 et 12. Les tendances y sont relativement homogènes et progressives pour le niveau 3, très variables pour le niveau 2 et fortement décroissantes pour le niveau 0. L'algorithme stochastique quant à lui, propose des transitions douces mais il a tendance à toujours privilégier le niveau le plus faible. Nous pouvons observer une prépondérance du niveau 1 avec ce système. Ici, les niveaux 0 et 1 sont décroissants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants.
162 162
\begin{figure} 163 163 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp3.png} 164 164 \includegraphics[width=\textwidth]{./Figures/comp3.png}
\caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} 165 165 \caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)}
\label{figCmp3} 166 166 \label{figCmp3}
\end{figure} 167 167 \end{figure}
168 168
Les questions de la première et la deuxième séance étant de niveaux 0 et 1, le système a proposé des niveaux de complexité 1 ou 2 pour la troisième séance. La figure \ref{figCmp4} montre que le système initial est très lent à passer d'un niveau à l'autre. La figure \ref{figCmp3} permet de voir la première transition du système initial ne réagissant qu'aux notes obtenues dans les séances précédentes et non à celles de la séance en cours. Dans ce cas, l'algorithme de recommandation déterministe adopte la même stratégie et propose un changement brutal à tous les apprenants autour de la cinquième question. L'algorithme stochastique continue avec des changements progressifs tout en privilégiant le niveau 2. 169 169 Les questions de la première et la deuxième séance étant de niveaux 0 et 1, le système a proposé des niveaux de complexité 1 ou 2 pour la troisième séance. La figure \ref{figCmp4} montre que le système initial est très lent à passer d'un niveau à l'autre. La figure \ref{figCmp3} permet de voir la première transition du système initial ne réagissant qu'aux notes obtenues dans les séances précédentes et non à celles de la séance en cours. Dans ce cas, l'algorithme de recommandation déterministe adopte la même stratégie et propose un changement brutal à tous les apprenants autour de la cinquième question. L'algorithme stochastique continue avec des changements progressifs tout en privilégiant le niveau 2.
170 170
\begin{figure} 171 171 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp4.png} 172 172 \includegraphics[width=\textwidth]{./Figures/comp4.png}
\caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} 173 173 \caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)}
\label{figCmp4} 174 174 \label{figCmp4}
\end{figure} 175 175 \end{figure}
176 176
Pour comparer numériquement le système initial, l'algorithme déterministe et l'algorithme de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}). Celles-ci permettent de décrire le système de recommandation idéal si l'objectif de l'apprenant est de suivre un apprentissage standard, c'est à dire le parcours où l'objectif est d'avancer dans l'acquisition de la connaissance et les niveaux de complexité. Une valeur est calculée pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette mesure est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, lui permettant ainsi de renforcer ses connaissances pour ce niveau de complexité. De la même manière, il est attendu que le système de recommandation propose moins d'exercices aux niveaux de complexité pour lesquels les notes moyennes sont élevées, l'étudiant ayant acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. 177 177 Pour comparer numériquement le système initial, l'algorithme déterministe et l'algorithme de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}). Celles-ci permettent de décrire le système de recommandation idéal si l'objectif de l'apprenant est de suivre un apprentissage standard, c'est à dire le parcours où l'objectif est d'avancer dans l'acquisition de la connaissance et les niveaux de complexité. Une valeur est calculée pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette mesure est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, lui permettant ainsi de renforcer ses connaissances pour ce niveau de complexité. De la même manière, il est attendu que le système de recommandation propose moins d'exercices aux niveaux de complexité pour lesquels les notes moyennes sont élevées, l'apprenant ayant acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées.
178 178
\begin{equation} 179 179 \begin{equation}
%r_c=x+y-2xy 180 180 %r_c=x+y-2xy
%r_c=x^2+y^2-2x^2y^2 181 181 %r_c=x^2+y^2-2x^2y^2
rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} 182 182 rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\}
\label{eqMetric1} 183 183 \label{eqMetric1}
\end{equation} 184 184 \end{equation}
185 185
\begin{equation} 186 186 \begin{equation}
r=\sum_{c=0}^{c_n-1} rp_c 187 187 r=\sum_{c=0}^{c_n-1} rp_c
\label{eqMetric2} 188 188 \label{eqMetric2}
\end{equation} 189 189 \end{equation}
190 190
Les propriétés de la métrique sont : 191 191 Les propriétés de la métrique sont :
\begin{itemize} 192 192 \begin{itemize}
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$ 193 193 \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$
\item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$ 194 194 \item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$
\item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\ 195 195 \item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\
\end{itemize} 196 196 \end{itemize}
197 197
Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions auxquelles des réponses ont été données dans le niveau de complexité $c$ (équation \ref{eqYc}). Ainsi, plus la valeur de $r$ est élevée, meilleure est la recommandation. 198 198 Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions auxquelles des réponses ont été données dans le niveau de complexité $c$ (équation \ref{eqYc}). Ainsi, plus la valeur de $r$ est élevée, meilleure est la recommandation.
199 199
\begin{equation} 200 200 \begin{equation}
x_{0,c}=\frac{<g_c>_{G_c}}{g_m} 201 201 x_{0,c}=\frac{<g_c>_{G_c}}{g_m}
\label{eqXc} 202 202 \label{eqXc}
\end{equation} 203 203 \end{equation}
204 204
\begin{equation} 205 205 \begin{equation}
x_{1,c}=\frac{ny_c}{n_c} 206 206 x_{1,c}=\frac{ny_c}{n_c}
\label{eqYc} 207 207 \label{eqYc}
\end{equation} 208 208 \end{equation}
209 209
La figure \ref{figMetric} représente la fonction $rp_c(x)$. La valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. 210 210 La figure \ref{figMetric} représente la fonction $rp_c(x)$. La valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5.
211 211
\begin{figure} 212 212 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/metric.png} 213 213 \includegraphics[width=\textwidth]{./Figures/metric.png}
\caption{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard} 214 214 \caption{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard}
\label{figMetric} 215 215 \label{figMetric}
\end{figure} 216 216 \end{figure}
217 217
Les résultats des calculs de la métrique $rp_c(x)$ établie pour le système initial et les deux algorithmes dans les trois scénarios testés sont présentés dans le tableau \ref{tabRM}. 218 218 Les résultats des calculs de la métrique $rp_c(x)$ établie pour le système initial et les deux algorithmes dans les trois scénarios testés sont présentés dans le tableau \ref{tabRM}.
219 219
\begin{table}[!ht] 220 220 \begin{table}[!ht]
\centering 221 221 \centering
\begin{tabular}{cccccccc} 222 222 \begin{tabular}{cccccccc}
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ 223 223 &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\
\hline 224 224 \hline
Test 1\\ 225 225 Test 1\\
\hline 226 226 \hline
RàPC&0.5388&-&-&-&-&0.5388&10.776\\ 227 227 RàPC&0.5388&-&-&-&-&0.5388&10.776\\
DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\ 228 228 DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\
SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\ 229 229 SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\
\hline 230 230 \hline
Test 2\\ 231 231 Test 2\\
\hline 232 232 \hline
RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\ 233 233 RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\
DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\ 234 234 DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\
SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\ 235 235 SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\
\hline 236 236 \hline
Test3\\ 237 237 Test3\\
\hline 238 238 \hline
RàPC&-&0.8559&0.7377&-&-&1.5936&31.872 239 239 RàPC&-&0.8559&0.7377&-&-&1.5936&31.872
\\ 240 240 \\
DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\ 241 241 DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\
SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\ 242 242 SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\
\end{tabular} 243 243 \end{tabular}
\caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)} 244 244 \caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)}
\label{tabRM} 245 245 \label{tabRM}
\end{table} 246 246 \end{table}
247 247
Les équations \ref{eqMetricS1} et \ref{eqMetricS2} permettent de caractériser un apprentissage progressif ou de révision, où l'objectif est de renforcer la connaissance de chaque niveau de complexité avant d'avancer au suivant. Dans ce cas, un score élevé est attribué aux systèmes proposant plus d'exercices dans un niveau de complexité où les notes moyennes sont légèrement insuffisantes (4/10), plus flexibles avec des notes moyennes plus basses, et un petit nombre d'exercices pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent de nombreuses questions dans un niveau de complexité avec des notes moyennes élevées ou faibles. 248 248 Les équations \ref{eqMetricS1} et \ref{eqMetricS2} permettent de caractériser un apprentissage progressif ou de révision, où l'objectif est de renforcer la connaissance de chaque niveau de complexité avant d'avancer au suivant. Dans ce cas, un score élevé est attribué aux systèmes proposant plus d'exercices dans un niveau de complexité où les notes moyennes sont légèrement insuffisantes (4/10), plus flexibles avec des notes moyennes plus basses, et un petit nombre d'exercices pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent de nombreuses questions dans un niveau de complexité avec des notes moyennes élevées ou faibles.
249 249
\begin{equation} 250 250 \begin{equation}
rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} 251 251 rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\}
\label{eqMetricS1} 252 252 \label{eqMetricS1}
\end{equation} 253 253 \end{equation}
254 254
\begin{equation} 255 255 \begin{equation}
r=\sum_{c=0}^{c_n-1} rs_c 256 256 r=\sum_{c=0}^{c_n-1} rs_c
\label{eqMetricS2} 257 257 \label{eqMetricS2}
\end{equation} 258 258 \end{equation}
259 259
Les propriétés de la métrique sont : 260 260 Les propriétés de la métrique sont :
\begin{itemize} 261 261 \begin{itemize}
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$ 262 262 \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$
\item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\ 263 263 \item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\
\end{itemize} 264 264 \end{itemize}
265 265
La figure \ref{figMetric2} représente la fonction $rs_c(x)$. Comme pour $rp_c$, la valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. 266 266 La figure \ref{figMetric2} représente la fonction $rs_c(x)$. Comme pour $rp_c$, la valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5.
267 267
Les résultats du calcul des métriques pour le système initial et les deux algorithmes dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}. 268 268 Les résultats du calcul des métriques pour le système initial et les deux algorithmes dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}.
269 269
\begin{figure}[!ht] 270 270 \begin{figure}[!ht]
\centering 271 271 \centering
\includegraphics[width=\textwidth]{./Figures/metric2.png} 272 272 \includegraphics[width=\textwidth]{./Figures/metric2.png}
\caption{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.} 273 273 \caption{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.}
\label{figMetric2} 274 274 \label{figMetric2}
\end{figure} 275 275 \end{figure}
276 276
\begin{table}[!ht] 277 277 \begin{table}[!ht]
\centering 278 278 \centering
\begin{tabular}{cccccccc} 279 279 \begin{tabular}{cccccccc}
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ 280 280 &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\
\hline 281 281 \hline
Séance 1\\ 282 282 Séance 1\\
\hline 283 283 \hline
RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\ 284 284 RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\
DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\ 285 285 DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\
SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\ 286 286 SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\
\hline 287 287 \hline
Séance 2\\ 288 288 Séance 2\\
\hline 289 289 \hline
RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\ 290 290 RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\
DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\ 291 291 DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\
SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\ 292 292 SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\
\hline 293 293 \hline
Séance 3\\ 294 294 Séance 3\\
\hline 295 295 \hline
RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74 296 296 RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74
\\ 297 297 \\
DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\ 298 298 DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\
SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\ 299 299 SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\
\end{tabular} 300 300 \end{tabular}
\caption{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique} 301 301 \caption{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique}
\label{tabRM2} 302 302 \label{tabRM2}
\end{table} 303 303 \end{table}
304 304
En complément, le tableau \ref{tabCS} présente les similarités entre toutes les recommandations faites aux apprenants par les trois systèmes et les trois séances d'entraînement. Pour ce faire, nous avons choisi d'appliquer l'équation \ref{eqCS} permettant de calculer une similarité cosinus entre deux vecteurs $A$ et $B$. 305 305 En complément, le tableau \ref{tabCS} présente les similarités entre toutes les recommandations faites aux apprenants par les trois systèmes et les trois séances d'entraînement. Pour ce faire, nous avons choisi d'appliquer l'équation \ref{eqCS} permettant de calculer une similarité cosinus entre deux vecteurs $A$ et $B$.
306 306
\begin{equation} 307 307 \begin{equation}
sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}} 308 308 sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}}
\label{eqCS} 309 309 \label{eqCS}
\end{equation} 310 310 \end{equation}
311 311
\begin{table}[!ht] 312 312 \begin{table}[!ht]
\centering 313 313 \centering
\begin{tabular}{cccc} 314 314 \begin{tabular}{cccc}
Système de recommandation & Séance 1 & Séance 2 & Séance 3\\ 315 315 Système de recommandation & Séance 1 & Séance 2 & Séance 3\\
\hline 316 316 \hline
RàPC&1&1&1\\ 317 317 RàPC&1&1&1\\
DM&0.9540&0.9887&0.9989\\ 318 318 DM&0.9540&0.9887&0.9989\\
SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ 319 319 SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\
\end{tabular} 320 320 \end{tabular}
\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)} 321 321 \caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)}
\label{tabCS} 322 322 \label{tabCS}
\end{table} 323 323 \end{table}
324 324
\subsection{Discussion et Conclusion} 325 325 \subsection{Discussion et Conclusion}
Avec la génération d'exercices par le système de RàPC initial, AI-VT propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, un changement toutes les trois ou quatre séances environ. En effet, le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes intégrant l'un des modules de recommandation testés sont plus dynamiques et les évolutions sont plus rapides. En considérant les notes des apprenants, l'algorithme déterministe suggère des changements de niveaux à un grand nombre d'apprenants de manière soudaine, tandis que l'algorithme stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modules de recommandation proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers. 326 326 Avec la génération d'exercices par le système de RàPC initial, AI-VT propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, un changement toutes les trois ou quatre séances environ. En effet, le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes intégrant l'un des modules de recommandation testés sont plus dynamiques et les évolutions sont plus rapides. En considérant les notes des apprenants, l'algorithme déterministe suggère des changements de niveaux à un grand nombre d'apprenants de manière soudaine, tandis que l'algorithme stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modules de recommandation proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers.
327 327
Les données générées ont permis de simuler diverses situations avec les notes de mille apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations. 328 328 Les données générées ont permis de simuler diverses situations avec les notes de mille apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations.
329 329
Les résultats numériques montrent que les distributions des questions dans une séance par les deux modules de recommandation sont différentes bien que la tendance générale soit similaire. Les modules de recommandation proposés tentent de répartir les questions dans tous les niveaux de complexité définis. Globalement, le module de recommandation stochastique a obtenu un meilleur score. En comparaison du système initial, les modules de recommandation (déterministe et stochastique) proposent 15\% à 68\% d'adaptations de la complexité pour tous les niveaux. Pour cette raison, l'approche stochastique sera préférée à l'approche déterministe dans la suite des travaux de recherche. 330 330 Les résultats numériques montrent que les distributions des questions dans une séance par les deux modules de recommandation sont différentes bien que la tendance générale soit similaire. Les modules de recommandation proposés tentent de répartir les questions dans tous les niveaux de complexité définis. Globalement, le module de recommandation stochastique a obtenu un meilleur score. En comparaison du système initial, les modules de recommandation (déterministe et stochastique) proposent 15\% à 68\% d'adaptations de la complexité pour tous les niveaux. Pour cette raison, l'approche stochastique sera préférée à l'approche déterministe dans la suite des travaux de recherche.
331 331
Selon la métrique de la similarité cosinus, le module de recommandation stochastique augmente la diversité des propositions par rapport au système initial dans les trois séances d'entraînement testées, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de progression des niveaux de compétence des apprenants. La diversité des propositions est une caractéristique essentielle de l'algorithme de recommandation dans ses deux versions. 332 332 Selon la métrique de la similarité cosinus, le module de recommandation stochastique augmente la diversité des propositions par rapport au système initial dans les trois séances d'entraînement testées, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de progression des niveaux de compétence des apprenants. La diversité des propositions est une caractéristique essentielle de l'algorithme de recommandation dans ses deux versions.
333 333
Les modules de recommandation sont un élément essentiel pour certains EIAH car ils aident à guider le processus d'apprentissage individuel. Ils permettent également d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les deux modules de recommandation proposés peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le niveau de complexité le plus adapté. Même si l'ensemble des données générées est une simulation de temps de réponse et de notes fictives d'apprenants fictifs, les tests démontrent la flexibilité et la robustesse des modules de recommandation proposés : les données relatives aux apprenants présentent en effet une grande diversité et obligent le système à s'adapter à différents types de configuration. Par conséquent, il est possible de conclure que les modules de recommandation proposés ont la capacité de fonctionner dans différentes situations et de proposer des chemins alternatifs et personnalisés pour améliorer le processus d'apprentissage global. 334 334 Les modules de recommandation sont un élément essentiel pour certains EIAH car ils aident à guider le processus d'apprentissage individuel. Ils permettent également d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les deux modules de recommandation proposés peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le niveau de complexité le plus adapté. Même si l'ensemble des données générées est une simulation de temps de réponse et de notes fictives d'apprenants fictifs, les tests démontrent la flexibilité et la robustesse des modules de recommandation proposés : les données relatives aux apprenants présentent en effet une grande diversité et obligent le système à s'adapter à différents types de configuration. Par conséquent, il est possible de conclure que les modules de recommandation proposés ont la capacité de fonctionner dans différentes situations et de proposer des chemins alternatifs et personnalisés pour améliorer le processus d'apprentissage global.
335 335
\section{ESCBR-SMA et échantillonnage de Thompson} 336 336 \section{ESCBR-SMA et échantillonnage de Thompson}
\sectionmark{ESCBR-SMA et TS} 337 337 \sectionmark{ESCBR-SMA et TS}
338 338
La section précédente a démontré l'intérêt de l'intégration d'un module de recommandation afin de proposer des exercices d'un niveau de difficulté adapté aux besoins de l'apprenant en fonction des difficultés décelées au cours de la séance d'entraînement. Le système AI-VT initial fondé sur le cycle du raisonnement à partir de cas et ne proposant que des adaptations entre deux séances d’entraînement consécutives, a été supplanté par l'intégration de modules de recommandation utilisés durant la phase de révision du cycle classique du RàPC. Les deux modules de recommandation testés dans la section précédente étaient l'un déterministe, l'autre stochastique. 339 339 La section précédente a démontré l'intérêt de l'intégration d'un module de recommandation afin de proposer des exercices d'un niveau de difficulté adapté aux besoins de l'apprenant en fonction des difficultés décelées au cours de la séance d'entraînement. Le système AI-VT initial fondé sur le cycle du raisonnement à partir de cas et ne proposant que des adaptations entre deux séances d’entraînement consécutives, a été supplanté par l'intégration de modules de recommandation utilisés durant la phase de révision du cycle classique du RàPC. Les deux modules de recommandation testés dans la section précédente étaient l'un déterministe, l'autre stochastique.
340 340
La section précédente a également démontré qu'il était possible et intéressant que les niveaux de complexité des exercices proposés puissent suivre des fonctions permettant de les faire fluctuer de manière progressive au cours de la séance, et ce afin que les apprenants ne soient pas confrontés à des difficultés changeant de manière trop abrupte durant l'entraînement. Cette étude nous amène donc à considérer la résolution de la génération d'une séance d'exercices sous l'angle de la régression. Nous proposons donc dans cette partie de montrer de quelle manière nous avons intégré et vérifié l'intérêt des outils définis dans le chapitre précédent dans l'EIAH AI-VT. 341 341 La section précédente a également démontré qu'il était possible et intéressant que les niveaux de complexité des exercices proposés puissent suivre des fonctions permettant de les faire fluctuer de manière progressive au cours de la séance, et ce afin que les apprenants ne soient pas confrontés à des difficultés changeant de manière trop abrupte durant l'entraînement. Cette étude nous amène donc à considérer la résolution de la génération d'une séance d'exercices sous l'angle de la régression. Nous proposons donc dans cette partie de montrer de quelle manière nous avons intégré et vérifié l'intérêt des outils définis dans le chapitre précédent dans l'EIAH AI-VT.
342 342
\subsection{Concepts Associés} 343 343 \subsection{Concepts Associés}
344 344
Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du module proposé. Le paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances acquises et l'expérience accumulée pour résoudre un problème spécifique. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC suit classiquement un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. 345 345 Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du module proposé. Le paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances acquises et l'expérience accumulée pour résoudre un problème spécifique. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC suit classiquement un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}.
346 346
L'un des algorithmes les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (\textit{Bayesian Knowledge Tracing}) \cite{ZHANG2018189}. Cet algorithme utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur. $P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour selon les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. 347 347 L'un des algorithmes les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (\textit{Bayesian Knowledge Tracing}) \cite{ZHANG2018189}. Cet algorithme utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur. $P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour selon les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée.
348 348
\begin{equation} 349 349 \begin{equation}
P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)} 350 350 P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)}
\label{eqbkt1} 351 351 \label{eqbkt1}
\end{equation} 352 352 \end{equation}
353 353
\begin{equation} 354 354 \begin{equation}
P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))} 355 355 P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))}
\label{eqbkt2} 356 356 \label{eqbkt2}
\end{equation} 357 357 \end{equation}
358 358
\begin{equation} 359 359 \begin{equation}
P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w) 360 360 P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w)
\label{eqbkt3} 361 361 \label{eqbkt3}
\end{equation} 362 362 \end{equation}
363 363
Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions \textit{Beta} (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. 364 364 Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions \textit{Beta} (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}.
365 365
%\begin{equation} 366 366 %\begin{equation}
% Beta(x,\alpha,\beta)=\begin{cases} 367 367 % Beta(x,\alpha,\beta)=\begin{cases}
% \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\ 368 368 % \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\
% 0&otherwise 369 369 % 0&otherwise
% \end{cases} 370 370 % \end{cases}
%\end{equation} 371 371 %\end{equation}
372 372
\begin{equation} 373 373 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} 374 374 Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{fbeta} 375 375 \label{fbeta}
\end{equation} 376 376 \end{equation}
377 377
En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction \textit{Beta} est obtenue (équation \ref{f2beta}). 378 378 En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction \textit{Beta} est obtenue (équation \ref{f2beta}).
379 379
\begin{equation} 380 380 \begin{equation}
\Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx 381 381 \Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx
\label{eqGamma1} 382 382 \label{eqGamma1}
\end{equation} 383 383 \end{equation}
384 384
\begin{equation} 385 385 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1} 386 386 Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f2beta} 387 387 \label{f2beta}
\end{equation} 388 388 \end{equation}
389 389
En exprimant les deux intégrales du dénominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue. 390 390 En exprimant les deux intégrales du dénominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue.
391 391
\begin{equation} 392 392 \begin{equation}
\int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv 393 393 \int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv
\label{f3Beta} 394 394 \label{f3Beta}
\end{equation} 395 395 \end{equation}
396 396
$u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$ sont ensuite remplacées par le résultat du Jacobien \ref{eqJac}, menant ainsi à l'expression finale définie par l'équation \ref{f4Beta}. 397 397 $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$ sont ensuite remplacées par le résultat du Jacobien \ref{eqJac}, menant ainsi à l'expression finale définie par l'équation \ref{f4Beta}.
398 398
\begin{equation} 399 399 \begin{equation}
\left ( 400 400 \left (
\begin{matrix} 401 401 \begin{matrix}
\frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\ 402 402 \frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\
\frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\ 403 403 \frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\
\end{matrix} 404 404 \end{matrix}
\right ) = 405 405 \right ) =
\left ( 406 406 \left (
\begin{matrix} 407 407 \begin{matrix}
sdt & tds \\ 408 408 sdt & tds \\
-sdt & (1-t)ds\\ 409 409 -sdt & (1-t)ds\\
\end{matrix} 410 410 \end{matrix}
\right ) = s \; dtds 411 411 \right ) = s \; dtds
\label{eqJac} 412 412 \label{eqJac}
\end{equation} 413 413 \end{equation}
414 414
\begin{equation} 415 415 \begin{equation}
\int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt 416 416 \int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt
\label{f4Beta} 417 417 \label{f4Beta}
\end{equation} 418 418 \end{equation}
419 419
Viennent ensuite les équations \ref{f5Beta} et \ref{f6Beta} en exprimant les intégrales en fonction des variables de substitution indépendantes $s$ et $t$. 420 420 Viennent ensuite les équations \ref{f5Beta} et \ref{f6Beta} en exprimant les intégrales en fonction des variables de substitution indépendantes $s$ et $t$.
421 421
\begin{equation} 422 422 \begin{equation}
\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 423 423 \int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
\label{f5Beta} 424 424 \label{f5Beta}
\end{equation} 425 425 \end{equation}
426 426
\begin{equation} 427 427 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 428 428 Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
}\theta^{\alpha-1}(1-\theta)^{\beta-1} 429 429 }\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f6Beta} 430 430 \label{f6Beta}
\end{equation} 431 431 \end{equation}
432 432
Finalement, la famille de fonctions de distribution \textit{Beta} peut être calculée selon l'équation \ref{f7Beta}. 433 433 Finalement, la famille de fonctions de distribution \textit{Beta} peut être calculée selon l'équation \ref{f7Beta}.
434 434
\begin{equation} 435 435 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 436 436 Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
} 437 437 }
\label{f7Beta} 438 438 \label{f7Beta}
\end{equation} 439 439 \end{equation}
440 440
L'évolution de l'algorithme de recommandation TS résulte du changement des distributions de probabilité. Il est à noter qu'au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude. 441 441 L'évolution de l'algorithme de recommandation TS résulte du changement des distributions de probabilité. Il est à noter qu'au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude.
442 442
Par ailleurs, l'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'informations nécessaires pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. Bien que largement utilisée, la divergence de Kullback-Liebler (équation \ref{dkl}) présente toutefois l'inconvénient de ne pas être une mesure symétrique car elle ne satisfait pas à l'inégalité triangulaire et n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon. 443 443 Par ailleurs, l'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'informations nécessaires pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. Bien que largement utilisée, la divergence de Kullback-Liebler (équation \ref{dkl}) présente toutefois l'inconvénient de ne pas être une mesure symétrique car elle ne satisfait pas à l'inégalité triangulaire et n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon.
444 444
\begin{equation} 445 445 \begin{equation}
D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx 446 446 D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx
\label{dkl} 447 447 \label{dkl}
\end{equation} 448 448 \end{equation}
449 449
La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler. Une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$. Celle-ci est calculée selon l'équation \ref{djs2}. Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine. 450 450 La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler. Une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$. Celle-ci est calculée selon l'équation \ref{djs2}. Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine.
451 451
%Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\ 452 452 %Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\
453 453
\begin{equation} 454 454 \begin{equation}
D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x)) 455 455 D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x))
\label{djs} 456 456 \label{djs}
\end{equation} 457 457 \end{equation}
458 458
\begin{equation} 459 459 \begin{equation}
m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x) 460 460 m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x)
\label{djs2} 461 461 \label{djs2}
\end{equation} 462 462 \end{equation}
463 463
La prédiction utilisée dans le module proposé ici a été présentée dans le chapitre \ref{ChapESCBR}. Il s'agit d'un algorithme d'empilement de raisonnement à partir de cas mettant en œuvre deux niveaux d'intégration. Le module utilise globalement la stratégie d'empilement pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et générer des solutions à différents problèmes génériques. En outre une étape d'évaluation permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. 464 464 La prédiction utilisée dans le module proposé ici a été présentée dans le chapitre \ref{ChapESCBR}. Il s'agit d'un algorithme d'empilement de raisonnement à partir de cas mettant en œuvre deux niveaux d'intégration. Le module utilise globalement la stratégie d'empilement pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et générer des solutions à différents problèmes génériques. En outre une étape d'évaluation permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression.
465 465
\subsection{Algorithme Proposé} 466 466 \subsection{Algorithme Proposé}
\label{Sec:TS-ESCBR-SMA} 467 467 \label{Sec:TS-ESCBR-SMA}
468 468
Nous proposons ici une intégration de l'algorithme d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec ESCBR-SMA. Ainsi, le module de recommandation révise la séance en fonction des notes de l'apprenant et ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. 469 469 Nous proposons ici une intégration de l'algorithme d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec ESCBR-SMA. Ainsi, le module de recommandation révise la séance en fonction des notes de l'apprenant et ESCBR-SMA effectue une prédiction pour valider l'adaptation générée.
470 470
L'idée est d'unifier les deux modules en se fondant à la fois sur des informations locales (recommandation fondée sur l'échantillonnage de Thompson (TS) et les informations propres à l'apprenant), et sur des informations globales (cas similaires de la base de connaissances du système de RàPC en suivant le principe du paradoxe de Stein) car le RàPC combine différents observations pour réaliser une estimation. 471 471 L'idée est d'unifier les deux modules en se fondant à la fois sur des informations locales (recommandation fondée sur l'échantillonnage de Thompson (TS) et les informations propres à l'apprenant), et sur des informations globales (cas similaires de la base de connaissances du système de RàPC en suivant le principe du paradoxe de Stein) car le RàPC combine différents observations pour réaliser une estimation.
472 472
L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés \cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}. 473 473 L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés \cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}.
474 474
\begin{figure} 475 475 \begin{figure}
\centering 476 476 \centering
\includegraphics[width=0.7\linewidth]{Figures/Model.png} 477 477 \includegraphics[width=0.7\linewidth]{Figures/Model.png}
\caption{Schéma de l'architecture de l'algorithme proposé} 478 478 \caption{Schéma de l'architecture de l'algorithme proposé}
\label{fig:Amodel} 479 479 \label{fig:Amodel}
\end{figure} 480 480 \end{figure}
481 481
La première étape est l'adaptation avec l'échantillonnage de Thompson. Vient ensuite la prédiction via ECBR-SMA. Enfin, le processus se termine par la prise de décision concernant la suite de la séance à délivrer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé ainsi que les mesures employées. 482 482 La première étape est l'adaptation avec l'échantillonnage de Thompson. Vient ensuite la prédiction via ESCBR-SMA. Enfin, le processus se termine par la prise de décision concernant la suite de la séance à délivrer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé ainsi que les mesures employées.
483 483
\begin{table}[!ht] 484 484 \begin{table}[!ht]
\centering 485 485 \centering
\footnotesize 486 486 \footnotesize
\begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} 487 487 \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c}
ID&Type&Description&Domaine\\ 488 488 ID&Type&Description&Domaine\\
\hline 489 489 \hline
$\alpha$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\ 490 490 $\alpha$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\
$\beta$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\ 491 491 $\beta$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\
$t$&p&Numéro de l'itération&$\mathbb{N}$\\ 492 492 $t$&p&Numéro de l'itération&$\mathbb{N}$\\
$c$&p&Niveau de complexité&$\mathbb{N}$\\ 493 493 $c$&p&Niveau de complexité&$\mathbb{N}$\\
$x_c$&p&Notes moyennes par niveau de complexité $c$&$\mathbb{R}$\\ 494 494 $x_c$&p&Notes moyennes par niveau de complexité $c$&$\mathbb{R}$\\
$y_c$&p&Nombre de questions par niveau de complexité $c$&$\mathbb{N}$\\ 495 495 $y_c$&p&Nombre de questions par niveau de complexité $c$&$\mathbb{N}$\\
$r$&f&Fonction suivie pour la recommandation&$[0,1] \in \mathbb{R}$\\ 496 496 $r$&f&Fonction suivie pour la recommandation&$[0,1] \in \mathbb{R}$\\
$k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ 497 497 $k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\ 498 498 $vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\
$TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ 499 499 $TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$TSN_c$&v&Normalisation de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\ 500 500 $TSN_c$&v&Normalisation de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\
$ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\ 501 501 $ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\
$p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\ 502 502 $p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\
$D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\ 503 503 $D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\
504 504
\end{tabular} 505 505 \end{tabular}
\caption{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées} 506 506 \caption{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées}
\label{tabvp} 507 507 \label{tabvp}
\end{table} 508 508 \end{table}
509 509
Pour rappel, le processus de recommandation se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le algorithme TS (équation \ref{IntEq1_}). Une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée selon l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par ESCBR-SMA (équation \ref{eqMixModels_}). La recommandation finalement proposée est celle dont la valeur est la plus élevée. 510 510 Pour rappel, le processus de recommandation se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le algorithme TS (équation \ref{IntEq1_}). Une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée selon l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par ESCBR-SMA (équation \ref{eqMixModels_}). La recommandation finalement proposée est celle dont la valeur est la plus élevée.
511 511
\begin{equation} 512 512 \begin{equation}
TS_c \sim (Beta(\alpha_c, \beta_c)) 513 513 TS_c \sim (Beta(\alpha_c, \beta_c))
\label{IntEq1_} 514 514 \label{IntEq1_}
\end{equation} 515 515 \end{equation}
516 516
\begin{equation} 517 517 \begin{equation}
TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i} 518 518 TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i}
\label{IntEq2_} 519 519 \label{IntEq2_}
\end{equation} 520 520 \end{equation}
521 521
\begin{equation} 522 522 \begin{equation}
n_c=argmax_c(TSN_c*ESCBR_c) 523 523 n_c=argmax_c(TSN_c*ESCBR_c)
\label{eqMixModels_} 524 524 \label{eqMixModels_}
\end{equation} 525 525 \end{equation}
526 526
\subsection{Résultats et Discussion} 527 527 \subsection{Résultats et Discussion}
528 528
Le principal inconvénient posé par la validation d'un tel système « en situation réelle » est la difficulté à collecter des données et à évaluer des systèmes différents dans des conditions strictement similaires. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulés, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment rendant ainsi les données incomplètes \cite{badier:hal-04092828}. 529 529 Le principal inconvénient posé par la validation d'un tel système « en situation réelle » est la difficulté à collecter des données et à évaluer des systèmes différents dans des conditions strictement similaires. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulés, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment rendant ainsi les données incomplètes \cite{badier:hal-04092828}.
530 530
Pour cette raison, les différentes approches proposées ont été testées sur des données générées : les notes et les temps de réponse de 1000 apprenants fictifs et cinq questions par niveau de complexité. Les notes des apprenants ont été créées en suivant la loi de distribution \textit{logit-normale} que nous avons jugée proche de la réalité de la progression d'un apprentissage \cite{Data}. 531 531 Pour cette raison, les différentes approches proposées ont été testées sur des données générées : les notes et les temps de réponse de 1000 apprenants fictifs et cinq questions par niveau de complexité. Les notes des apprenants ont été créées en suivant la loi de distribution \textit{logit-normale} que nous avons jugée proche de la réalité de la progression d'un apprentissage \cite{Data}.
532 532
Quatre séries de tests ont été effectuées. La première série a été menée sur le système AI-VT intégrant le système de RàPC pour la régression afin de démontrer la capacité de l'algorithme à prédire les notes à différents niveaux de complexité. 533 533 Quatre séries de tests ont été effectuées. La première série a été menée sur le système AI-VT intégrant le système de RàPC pour la régression afin de démontrer la capacité de l'algorithme à prédire les notes à différents niveaux de complexité.
La deuxième série de tests a évalué la progression des connaissances avec TS afin d'analyser la capacité du module à proposer des recommandations personnalisées. Lors de la troisième série de tests, nous avons comparé les algorithmes de recommandation BKT et TS. Enfin, lors de la quatrième série de tests, nous avons comparé TS seul et TS avec ESCBR-SMA. 534 534 La deuxième série de tests a évalué la progression des connaissances avec TS afin d'analyser la capacité du module à proposer des recommandations personnalisées. Lors de la troisième série de tests, nous avons comparé les algorithmes de recommandation BKT et TS. Enfin, lors de la quatrième série de tests, nous avons comparé TS seul et TS avec ESCBR-SMA.
535 535
\subsubsection{Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain} 536 536 \subsubsection{Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}
537 537
Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d’interagir au cours de l'exécution et de l'exploration. 538 538 Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d’interagir au cours de l'exécution et de l'exploration.
539 539
ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP-Difficile car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}. 540 540 ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP-Difficile car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}.
541 541
Les différents scénarios du tableau \ref{tab:scenarios} ont été considérés dans un premier temps. Dans le scénario $E_1$, il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario $E_2$ considère les notes de 8 questions et l'objectif est de prédire la note de la neuvième question dans le même niveau de complexité. Le scénario $E_3$ interpole la neuvième note que l'apprenant obtiendrait si la neuvième question était de niveau de complexité supérieur à celui de la huitième question. Cette interpolation est faite sur la base des notes obtenues aux quatre questions précédentes. Le scénario $E_4$ considère 4 questions et le système doit interpoler 2 notes dans un niveau de complexité supérieur. 542 542 Les différents scénarios du tableau \ref{tab:scenarios} ont été considérés dans un premier temps. Dans le scénario $E_1$, il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario $E_2$ considère les notes de 8 questions et l'objectif est de prédire la note de la neuvième question dans le même niveau de complexité. Le scénario $E_3$ interpole la neuvième note que l'apprenant obtiendrait si la neuvième question était de niveau de complexité supérieur à celui de la huitième question. Cette interpolation est faite sur la base des notes obtenues aux quatre questions précédentes. Le scénario $E_4$ considère 4 questions et le système doit interpoler 2 notes dans un niveau de complexité supérieur.
543 543
\begin{table}[!ht] 544 544 \begin{table}[!ht]
\centering 545 545 \centering
\begin{tabular}{ccc} 546 546 \begin{tabular}{ccc}
Scenario&Caractéristiques du problème&Dimension de la solution\\ 547 547 Scenario&Caractéristiques du problème&Dimension de la solution\\
\hline 548 548 \hline
$E_1$ & 5 & 1\\ 549 549 $E_1$ & 5 & 1\\
$E_2$ & 15& 1\\ 550 550 $E_2$ & 15& 1\\
$E_3$ & 9 & 1\\ 551 551 $E_3$ & 9 & 1\\
$E_4$ & 9 & 2\\ 552 552 $E_4$ & 9 & 2\\
\end{tabular} 553 553 \end{tabular}
\caption{Description des scénarios} 554 554 \caption{Description des scénarios}
\label{tab:scenarios} 555 555 \label{tab:scenarios}
\end{table} 556 556 \end{table}
557 557
ESCBR-SMA a été comparé aux neuf outils classiquement utilisés pour résoudre la régression consignés dans le tableau \ref{tabAlgs} et selon l'erreur quadratique moyenne (RMSE - \textit{Root Mean Squared Error}), l'erreur médiane absolue (MedAE - \textit{Median Absolute Error}) et l'erreur moyenne absolue (MAE - \textit{Mean Absolute Error}). 558 558 ESCBR-SMA a été comparé aux neuf outils classiquement utilisés pour résoudre la régression consignés dans le tableau \ref{tabAlgs} et selon l'erreur quadratique moyenne (RMSE - \textit{Root Mean Squared Error}), l'erreur médiane absolue (MedAE - \textit{Median Absolute Error}) et l'erreur moyenne absolue (MAE - \textit{Mean Absolute Error}).
559 559
\begin{table}[!ht] 560 560 \begin{table}[!ht]
\centering 561 561 \centering
\footnotesize 562 562 \footnotesize
\begin{tabular}{ll|ll} 563 563 \begin{tabular}{ll|ll}
ID&Algorithme&ID&Algorithme\\ 564 564 ID&Algorithme&ID&Algorithme\\
\hline 565 565 \hline
A1&Linear Regression&A6&Polinomial Regression\\ 566 566 A1&Linear Regression&A6&Polinomial Regression\\
A2&K-Nearest Neighbor&A7&Ridge Regression\\ 567 567 A2&K-Nearest Neighbor&A7&Ridge Regression\\
A3&Decision Tree&A8&Lasso Regression\\ 568 568 A3&Decision Tree&A8&Lasso Regression\\
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ 569 569 A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\
A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\ 570 570 A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\
\end{tabular} 571 571 \end{tabular}
\caption{Liste des algorithmes évalués } 572 572 \caption{Liste des algorithmes évalués }
\label{tabAlgs} 573 573 \label{tabAlgs}
\end{table} 574 574 \end{table}
575 575
Le tableau \ref{tab:results} présente les résultats obtenus par les 10 algorithmes sur les quatre scénarios. Ces résultats montrent qu'ESCBR-SMA (A10) et le \textit{Gradient Boosting} (A9) obtiennent toujours les deux meilleurs résultats. Si l'on considère uniquement la RMSE, ESCBR-SMA occupe toujours la première place sauf pour $E_3$ où il est deuxième. Inversement, en considérant l'erreur médiane absolue ou l'erreur moyenne absolue, A10 se classe juste après A9. ESCBR-SMA et le \textit{Gradient Boosting} sont donc efficaces pour interpoler les notes des apprenants. 576 576 Le tableau \ref{tab:results} présente les résultats obtenus par les 10 algorithmes sur les quatre scénarios. Ces résultats montrent qu'ESCBR-SMA (A10) et le \textit{Gradient Boosting} (A9) obtiennent toujours les deux meilleurs résultats. Si l'on considère uniquement la RMSE, ESCBR-SMA occupe toujours la première place sauf pour $E_3$ où il est deuxième. Inversement, en considérant l'erreur médiane absolue ou l'erreur moyenne absolue, A10 se classe juste après A9. ESCBR-SMA et le \textit{Gradient Boosting} sont donc efficaces pour interpoler les notes des apprenants.
577 577
\begin{table}[!ht] 578 578 \begin{table}[!ht]
\centering 579 579 \centering
\footnotesize 580 580 \footnotesize
\begin{tabular}{c|cccccccccc} 581 581 \begin{tabular}{c|cccccccccc}
&\multicolumn{10}{c}{\textbf{Algorithme}}\\ 582 582 &\multicolumn{10}{c}{\textbf{Algorithme}}\\
\hline 583 583 \hline
& A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ 584 584 & A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
\textbf{Scenario (Métrique)}\\ 585 585 \textbf{Scenario (Métrique)}\\
\hline 586 586 \hline
$E_1$ (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\ 587 587 $E_1$ (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\
$E_1$ (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\ 588 588 $E_1$ (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\
$E_1$ (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\ 589 589 $E_1$ (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\
\hline 590 590 \hline
$E_2$ (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\ 591 591 $E_2$ (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\
$E_2$ (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\ 592 592 $E_2$ (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\
$E_2$ (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\ 593 593 $E_2$ (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\
\hline 594 594 \hline
$E_3$ (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\ 595 595 $E_3$ (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\
$E_3$ (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\ 596 596 $E_3$ (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\
$E_3$ (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\ 597 597 $E_3$ (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\
\hline 598 598 \hline
$E_4$ (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\ 599 599 $E_4$ (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\
$E_4$ (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\ 600 600 $E_4$ (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\
$E_4$ (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\ 601 601 $E_4$ (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\
\end{tabular} 602 602 \end{tabular}
\caption{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.} 603 603 \caption{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.}
\label{tab:results} 604 604 \label{tab:results}
\end{table} 605 605 \end{table}
606 606
\subsubsection{Progression des connaissances} 607 607 \subsubsection{Progression des connaissances}
608 608
L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution \textit{Beta} en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). 609 609 L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution \textit{Beta} en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
610 610
%\begin{equation} 611 611 %\begin{equation}
\begin{multline} 612 612 \begin{multline}
k_{t,c}=\frac{1}{2} 613 613 k_{t,c}=\frac{1}{2}
\int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx 614 614 \int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\\ 615 615 \\
+\frac{1}{2} 616 616 +\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx 617 617 \int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\label{eqprog1} 618 618 \label{eqprog1}
\end{multline} 619 619 \end{multline}
%\end{equation} 620 620 %\end{equation}
621 621
\begin{multline} 622 622 \begin{multline}
m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\ 623 623 m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\
+\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right ) 624 624 +\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right )
%\end{equation} 625 625 %\end{equation}
\label{eqprog2} 626 626 \label{eqprog2}
\end{multline} 627 627 \end{multline}
628 628
La progression du nombre total de connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). Pour ce faire, nous évaluons la progression de la variabilité données par équation \ref{eqVarP}. 629 629 La progression du nombre total de connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). Pour ce faire, nous évaluons la progression de la variabilité données par équation \ref{eqVarP}.
630 630
\begin{equation} 631 631 \begin{equation}
vk_{t,c}=\begin{cases} 632 632 vk_{t,c}=\begin{cases}
D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\ 633 633 D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\
-D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise 634 634 -D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise
\end{cases} 635 635 \end{cases}
\label{eqVarP} 636 636 \label{eqVarP}
\end{equation} 637 637 \end{equation}
638 638
\begin{equation} 639 639 \begin{equation}
k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0} 640 640 k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0}
\begin{cases} 641 641 \begin{cases}
\alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\ 642 642 \alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\
0;&Otherwise 643 643 0;&Otherwise
\end{cases} 644 644 \end{cases}
\label{eqTEK} 645 645 \label{eqTEK}
\end{equation} 646 646 \end{equation}
647 647
\begin{figure}[!ht] 648 648 \begin{figure}[!ht]
\centering 649 649 \centering
\includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg} 650 650 \includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg}
\caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon} 651 651 \caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon}
\label{fig:evolution} 652 652 \label{fig:evolution}
\end{figure} 653 653 \end{figure}
654 654
La figure \ref{fig:evolution} montre la progression cumulée des connaissances sur les quinze questions d'une même séance d'entraînement. L'augmentation de la moyenne du niveau de connaissance entre la première et la dernière question de la même séance montre que tous les apprenants ont statistiquement augmenté leur niveau de connaissance. La variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants. À ce stade, la variabilité diminue et la moyenne augmente. 655 655 La figure \ref{fig:evolution} montre la progression cumulée des connaissances sur les quinze questions d'une même séance d'entraînement. L'augmentation de la moyenne du niveau de connaissance entre la première et la dernière question de la même séance montre que tous les apprenants ont statistiquement augmenté leur niveau de connaissance. La variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants. À ce stade, la variabilité diminue et la moyenne augmente.
656 656
\subsubsection{Système de recommandation avec un jeu de données d'étudiants réels} 657 657 \subsubsection{Système de recommandation avec un jeu de données d'apprenants réels}
658 658
Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites de données réelles d'interactions d'étudiants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble contient les notes de $23366$ apprenants dans différents cours. Les apprenants ont été évalués selon différentes modalités (partiels, projets, QCM) \cite{Data}. Cet ensemble de données a pu être intégré au jeu de données d'AI-VT (notes, temps de réponse et 5 niveaux de complexité). Le test a consisté à générer une recommandation pour l'avant dernière question en fonction des notes précédentes. Ce test a été exécuté 100 fois pour chaque apprenant. Les nombres de questions recommandées sont reportés sur la figure \ref{fig:stabilityBP} pour chaque niveau de complexité. Celle-ci montre que malgré la stochasticité, la variance globale dans tous les niveaux de complexité est faible en fonction du nombre total d'apprenants et du nombre total de recommandations, et démontre ainsi la stabilité de l'algorithme.\\ 659 659 Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites de données réelles d'interactions d'apprenants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble contient les notes de $23366$ apprenants dans différents cours. Les apprenants ont été évalués selon différentes modalités (partiels, projets, QCM) \cite{Data}. Cet ensemble de données a pu être intégré au jeu de données d'AI-VT (notes, temps de réponse et 5 niveaux de complexité). Le test a consisté à générer une recommandation pour l'avant dernière question en fonction des notes précédentes. Ce test a été exécuté 100 fois pour chaque apprenant. Les nombres de questions recommandées sont reportés sur la figure \ref{fig:stabilityBP2} pour chaque niveau de complexité. Celle-ci montre que malgré la stochasticité, la variance globale dans tous les niveaux de complexité est faible en fonction du nombre total d'apprenants et du nombre total de recommandations, et démontre ainsi la stabilité de l'algorithme.\\
660 660
\begin{figure}[!ht] 661 661 \begin{figure}[!ht]
\centering 662 662 \centering
\includegraphics[width=1\linewidth]{Figures/stabilityBoxplot.png} 663 663 \includegraphics[width=1\linewidth]{Figures/stabilityBoxplot.png}
\caption{Nombre de recommandations par niveau de complexité} 664 664 \caption{Nombre de recommandations par niveau de complexité}
\label{fig:stabilityBP} 665 665 \label{fig:stabilityBP2}
\end{figure} 666 666 \end{figure}
667 667
La précision de la recommandation pour tous les apprenants est évaluée en considérant comme comportement correct deux états : i) l'algorithme recommande un niveau où l'apprenant a une note supérieure ou égal à 6 et ii) l'algorithme recommande un niveau inférieur au niveau réel évalué par l'apprenant. Le premier cas montre que l'algorithme a identifié le moment précis où l'apprenant doit augmenter le niveau de complexité, le second cas permet d'établir que l'algorithme propose de renforcer un niveau de complexité plus faible. Puis la précision est calculée comme le rapport entre le nombre d'états correspondant aux comportements corrects définis et le nombre total de recommandations. La figure \ref{fig:precision} montre les résultats de cette métrique après 100 exécutions.\\ 668 668 La précision de la recommandation pour tous les apprenants est évaluée en considérant comme comportement correct deux états : i) l'algorithme recommande un niveau où l'apprenant a une note supérieure ou égal à 6 et ii) l'algorithme recommande un niveau inférieur au niveau réel évalué par l'apprenant. Le premier cas montre que l'algorithme a identifié le moment précis où l'apprenant doit augmenter le niveau de complexité, le second cas permet d'établir que l'algorithme propose de renforcer un niveau de complexité plus faible. Puis la précision est calculée comme le rapport entre le nombre d'états correspondant aux comportements corrects définis et le nombre total de recommandations. La figure \ref{fig:precision} montre les résultats de cette métrique après 100 exécutions.\\
669 669
\begin{figure}[!ht] 670 670 \begin{figure}[!ht]
\centering 671 671 \centering
\includegraphics[width=1\linewidth]{Figures/precision.png} 672 672 \includegraphics[width=1\linewidth]{Figures/precision.png}
\caption{Précision de la recommandation} 673 673 \caption{Précision de la recommandation}
\label{fig:precision} 674 674 \label{fig:precision}
\end{figure} 675 675 \end{figure}
676 676
\subsubsection{Comparaison entre TS et BKT} 677 677 \subsubsection{Comparaison entre TS et BKT}
678 678
La figure \ref{fig:EvGrades} permet de comparer la recommandation fondée sur l'échantillonnage de Thompson et celle fondée sur BKT. Cette figure montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le TS génère moins de variabilité que BKT, mais les évolutions induites par les deux systèmes restent globalement très similaires. 679 679 La figure \ref{fig:EvGrades} permet de comparer la recommandation fondée sur l'échantillonnage de Thompson et celle fondée sur BKT. Cette figure montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le TS génère moins de variabilité que BKT, mais les évolutions induites par les deux systèmes restent globalement très similaires.
680 680
\begin{figure}[!ht] 681 681 \begin{figure}[!ht]
\centering 682 682 \centering
\includegraphics[width=\textwidth]{Figures/GradesEv.jpg} 683 683 \includegraphics[width=\textwidth]{Figures/GradesEv.jpg}
\caption{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.} 684 684 \caption{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.}
\label{fig:EvGrades} 685 685 \label{fig:EvGrades}
\end{figure} 686 686 \end{figure}
687 687
Toutefois, si l'on considère l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), TS fait évoluer le niveau de complexité des apprenants, alors que BKT a tendance à laisser les apprenants au même niveau de complexité. Autrement dit, avec BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En comparant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}), TS permet de faire progresser la moyenne des notes et facilite l'évolution des niveaux de complexité. 688 688 Toutefois, si l'on considère l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), TS fait évoluer le niveau de complexité des apprenants, alors que BKT a tendance à laisser les apprenants au même niveau de complexité. Autrement dit, avec BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En comparant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}), TS permet de faire progresser la moyenne des notes et facilite l'évolution des niveaux de complexité.
689 689
\begin{figure}[!ht] 690 690 \begin{figure}[!ht]
\centering 691 691 \centering
\includegraphics[width=\textwidth]{Figures/LevelsEv.jpg} 692 692 \includegraphics[width=\textwidth]{Figures/LevelsEv.jpg}
\caption{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS} 693 693 \caption{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS}
\label{fig:EvCL} 694 694 \label{fig:EvCL}
\end{figure} 695 695 \end{figure}
696 696
\subsubsection{Système de recommandation avec ESCBR-SMA} 697 697 \subsubsection{Système de recommandation avec ESCBR-SMA}
698 698
La troisième étape est l'association des deux algorithmes afin de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (recommandation avec Thomson) et le filtre collaboratif (interpolation avec ESCBR-SMA). Cette partie présente une comparaison entre le système de recommandation TS et le système de recommandation TS intégré à la prédiction ESCBR-SMA. 699 699 La troisième étape est l'association des deux algorithmes afin de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (recommandation avec Thomson) et le filtre collaboratif (interpolation avec ESCBR-SMA). Cette partie présente une comparaison entre le système de recommandation TS et le système de recommandation TS intégré à la prédiction ESCBR-SMA.
700 700
Les résultats proposés sont comparés après réponse des apprenants à six questions car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité à la question suivante. 701 701 Les résultats proposés sont comparés après réponse des apprenants à six questions car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité à la question suivante.
702 702
\subsubsection{Progression des connaissances TS vs TS et ESCBR-SMA} 703 703 \subsubsection{Progression des connaissances TS vs TS et ESCBR-SMA}
704 704
chapters/contexte2.aux View file @ 4b1afa3
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{LALITHA2020583} 3 3 \citation{LALITHA2020583}
\citation{LALITHA2020583} 4 4 \citation{LALITHA2020583}
\citation{LALITHA2020583} 5 5 \citation{LALITHA2020583}
\@writefile{toc}{\contentsline {chapter}{\numberline {2}Contexte}{9}{chapter.2}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {chapter}{\numberline {2}Contexte}{9}{chapter.2}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 7 7 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 8 8 \@writefile{lot}{\addvspace {10\p@ }}
9 \newlabel{chap:contexte}{{2}{9}{Contexte}{chapter.2}{}}
\@writefile{toc}{\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{9}{section.2.1}\protected@file@percent } 9 10 \@writefile{toc}{\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{9}{section.2.1}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{9}{subsection.2.1.1}\protected@file@percent } 10 11 \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{9}{subsection.2.1.1}\protected@file@percent }
\citation{Nkambou} 11 12 \citation{Nkambou}
\citation{Nkambou} 12 13 \citation{Nkambou}
\@writefile{lof}{\contentsline {figure}{\numberline {2.1}{\ignorespaces Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }}{10}{figure.caption.4}\protected@file@percent } 13 14 \@writefile{lof}{\contentsline {figure}{\numberline {2.1}{\ignorespaces Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }}{10}{figure.caption.4}\protected@file@percent }
\providecommand*\caption@xref[2]{\@setref\relax\@undefined{#1}} 14 15 \providecommand*\caption@xref[2]{\@setref\relax\@undefined{#1}}
\newlabel{fig:figStra}{{2.1}{10}{Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }{figure.caption.4}{}} 15 16 \newlabel{fig:figStra}{{2.1}{10}{Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }{figure.caption.4}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{10}{subsection.2.1.2}\protected@file@percent } 16 17 \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{10}{subsection.2.1.2}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {2.2}{\ignorespaces L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }}{11}{figure.caption.5}\protected@file@percent } 17 18 \@writefile{lof}{\contentsline {figure}{\numberline {2.2}{\ignorespaces L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }}{11}{figure.caption.5}\protected@file@percent }
\newlabel{fig:figEIAH}{{2.2}{11}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }{figure.caption.5}{}} 18 19 \newlabel{fig:figEIAH}{{2.2}{11}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }{figure.caption.5}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{11}{subsection.2.1.3}\protected@file@percent } 19 20 \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{11}{subsection.2.1.3}\protected@file@percent }
\citation{ROLDANREYES20151} 20 21 \citation{ROLDANREYES20151}
\citation{10.1007/978-3-030-58342-2_20} 21 22 \citation{10.1007/978-3-030-58342-2_20}
\@writefile{toc}{\contentsline {section}{\numberline {2.2}Le contexte technique}{12}{section.2.2}\protected@file@percent } 22 23 \@writefile{toc}{\contentsline {section}{\numberline {2.2}Le contexte technique}{12}{section.2.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{12}{subsection.2.2.1}\protected@file@percent } 23 24 \@writefile{toc}{\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{12}{subsection.2.2.1}\protected@file@percent }
\citation{min8100434} 24 25 \citation{min8100434}
\citation{min8100434} 25 26 \citation{min8100434}
\citation{doi:10.3233/AIC-1994-7104} 26 27 \citation{doi:10.3233/AIC-1994-7104}
\citation{min8100434} 27 28 \citation{min8100434}
\citation{Richter2013} 28 29 \citation{Richter2013}
\@writefile{lof}{\contentsline {figure}{\numberline {2.3}{\ignorespaces Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }}{13}{figure.caption.6}\protected@file@percent } 29 30 \@writefile{lof}{\contentsline {figure}{\numberline {2.3}{\ignorespaces Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }}{13}{figure.caption.6}\protected@file@percent }
\newlabel{fig:figCycle}{{2.3}{13}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }{figure.caption.6}{}} 30 31 \newlabel{fig:figCycle}{{2.3}{13}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }{figure.caption.6}{}}
\citation{Richter2013} 31 32 \citation{Richter2013}
\citation{Richter2013} 32 33 \citation{Richter2013}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{14}{subsubsection.2.2.1.1}\protected@file@percent } 33 34 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{14}{subsubsection.2.2.1.1}\protected@file@percent }
\newlabel{eqSim}{{2.1}{14}{Retrouver (Rechercher)}{equation.2.2.1}{}} 34 35 \newlabel{eqSim}{{2.1}{14}{Retrouver (Rechercher)}{equation.2.2.1}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{14}{subsubsection.2.2.1.2}\protected@file@percent } 35 36 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{14}{subsubsection.2.2.1.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{14}{subsubsection.2.2.1.3}\protected@file@percent } 36 37 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{14}{subsubsection.2.2.1.3}\protected@file@percent }
\citation{RICHTER20093} 37 38 \citation{RICHTER20093}
\@writefile{lof}{\contentsline {figure}{\numberline {2.4}{\ignorespaces Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }}{15}{figure.caption.7}\protected@file@percent } 38 39 \@writefile{lof}{\contentsline {figure}{\numberline {2.4}{\ignorespaces Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }}{15}{figure.caption.7}\protected@file@percent }
\newlabel{fig:figReut}{{2.4}{15}{Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }{figure.caption.7}{}} 39 40 \newlabel{fig:figReut}{{2.4}{15}{Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }{figure.caption.7}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{15}{subsubsection.2.2.1.4}\protected@file@percent } 40 41 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{15}{subsubsection.2.2.1.4}\protected@file@percent }
\citation{hajduk2019cognitive} 41 42 \citation{hajduk2019cognitive}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{16}{subsubsection.2.2.1.5}\protected@file@percent } 42 43 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{16}{subsubsection.2.2.1.5}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {2.5}{\ignorespaces Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }}{16}{figure.caption.8}\protected@file@percent } 43 44 \@writefile{lof}{\contentsline {figure}{\numberline {2.5}{\ignorespaces Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }}{16}{figure.caption.8}\protected@file@percent }
\newlabel{fig:figCycleCBR}{{2.5}{16}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }{figure.caption.8}{}} 44 45 \newlabel{fig:figCycleCBR}{{2.5}{16}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }{figure.caption.8}{}}
\citation{Hoang} 45 46 \citation{Hoang}
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{17}{subsection.2.2.2}\protected@file@percent } 46 47 \@writefile{toc}{\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{17}{subsection.2.2.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}\protected@file@percent } 47 48 \@writefile{toc}{\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}\protected@file@percent } 48 49 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}\protected@file@percent }
\citation{Hoang} 49 50 \citation{Hoang}
\citation{10.1145/3459665} 50 51 \citation{10.1145/3459665}
\newlabel{eqBayes}{{2.2}{18}{Pensée Bayesienne}{equation.2.2.2}{}} 51 52 \newlabel{eqBayes}{{2.2}{18}{Pensée Bayesienne}{equation.2.2.2}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}\protected@file@percent } 52 53 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}\protected@file@percent }
\newlabel{eqDist}{{2.3}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.3}{}} 53 54 \newlabel{eqDist}{{2.3}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.3}{}}
\newlabel{eqMet1}{{2.4}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.4}{}} 54 55 \newlabel{eqMet1}{{2.4}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.4}{}}
\newlabel{eqMet2}{{2.5}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.5}{}} 55 56 \newlabel{eqMet2}{{2.5}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.5}{}}
\citation{9072123} 56 57 \citation{9072123}
\citation{WANG2021331} 57 58 \citation{WANG2021331}
\newlabel{eqV1}{{2.6}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.6}{}} 58 59 \newlabel{eqV1}{{2.6}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.6}{}}
\newlabel{eqV2}{{2.7}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.7}{}} 59 60 \newlabel{eqV2}{{2.7}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.7}{}}
\newlabel{eqV3}{{2.8}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.8}{}} 60 61 \newlabel{eqV3}{{2.8}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.8}{}}
\newlabel{eqCond}{{2.9}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.9}{}} 61 62 \newlabel{eqCond}{{2.9}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.9}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}\protected@file@percent } 62 63 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}\protected@file@percent }
\newlabel{eqKM}{{2.10}{19}{K-Moyennes}{equation.2.2.10}{}} 63 64 \newlabel{eqKM}{{2.10}{19}{K-Moyennes}{equation.2.2.10}{}}
\newlabel{eqCentres}{{2.11}{19}{K-Moyennes}{equation.2.2.11}{}} 64 65 \newlabel{eqCentres}{{2.11}{19}{K-Moyennes}{equation.2.2.11}{}}
\newlabel{eqApp}{{2.12}{19}{K-Moyennes}{equation.2.2.12}{}} 65 66 \newlabel{eqApp}{{2.12}{19}{K-Moyennes}{equation.2.2.12}{}}
\citation{9627973} 66 67 \citation{9627973}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}\protected@file@percent } 67 68 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}\protected@file@percent }
\newlabel{eqGMM}{{2.13}{20}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.13}{}} 68 69 \newlabel{eqGMM}{{2.13}{20}{Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.13}{}}
\newlabel{eqdProb}{{2.14}{20}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.14}{}} 69 70 \newlabel{eqdProb}{{2.14}{20}{Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.14}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}\protected@file@percent } 70 71 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}\protected@file@percent }
\newlabel{eqFuzzy}{{2.15}{20}{Fuzzy-C}{equation.2.2.15}{}} 71 72 \newlabel{eqFuzzy}{{2.15}{20}{Fuzzy-C}{equation.2.2.15}{}}
\newlabel{eqFCond}{{2.16}{20}{Fuzzy-C}{equation.2.2.16}{}} 72 73 \newlabel{eqFCond}{{2.16}{20}{Fuzzy-C}{equation.2.2.16}{}}
\citation{9434422} 73 74 \citation{9434422}
\citation{9870279} 74 75 \citation{9870279}
\newlabel{eqFV}{{2.17}{21}{Fuzzy-C}{equation.2.2.17}{}} 75 76 \newlabel{eqFV}{{2.17}{21}{Fuzzy-C}{equation.2.2.17}{}}
\newlabel{eqFU}{{2.18}{21}{Fuzzy-C}{equation.2.2.18}{}} 76 77 \newlabel{eqFU}{{2.18}{21}{Fuzzy-C}{equation.2.2.18}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{21}{subsubsection.2.2.3.6}\protected@file@percent } 77 78 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{21}{subsubsection.2.2.3.6}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{21}{subsubsection.2.2.3.7}\protected@file@percent } 78 79 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{21}{subsubsection.2.2.3.7}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {2.6}{\ignorespaces Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }}{22}{figure.caption.9}\protected@file@percent } 79 80 \@writefile{lof}{\contentsline {figure}{\numberline {2.6}{\ignorespaces Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }}{22}{figure.caption.9}\protected@file@percent }
\newlabel{fig:figBeta}{{2.6}{22}{Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }{figure.caption.9}{}} 80 81 \newlabel{fig:figBeta}{{2.6}{22}{Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }{figure.caption.9}{}}
\newlabel{eqBeta}{{2.19}{22}{Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{equation.2.2.19}{}} 81 82 \newlabel{eqBeta}{{2.19}{22}{Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{equation.2.2.19}{}}
\@setckpt{./chapters/contexte2}{ 82 83 \@setckpt{./chapters/contexte2}{
\setcounter{page}{23} 83 84 \setcounter{page}{23}
\setcounter{equation}{19} 84 85 \setcounter{equation}{19}
\setcounter{enumi}{0} 85 86 \setcounter{enumi}{0}
\setcounter{enumii}{0} 86 87 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 87 88 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 88 89 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 89 90 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 90 91 \setcounter{mpfootnote}{0}
\setcounter{part}{2} 91 92 \setcounter{part}{2}
\setcounter{chapter}{2} 92 93 \setcounter{chapter}{2}
\setcounter{section}{2} 93 94 \setcounter{section}{2}
\setcounter{subsection}{3} 94 95 \setcounter{subsection}{3}
\setcounter{subsubsection}{7} 95 96 \setcounter{subsubsection}{7}
\setcounter{paragraph}{0} 96 97 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 97 98 \setcounter{subparagraph}{0}
\setcounter{figure}{6} 98 99 \setcounter{figure}{6}
\setcounter{table}{0} 99 100 \setcounter{table}{0}
\setcounter{caption@flags}{2} 100 101 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 101 102 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 102 103 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 103 104 \setcounter{subtable}{0}
\setcounter{parentequation}{0} 104 105 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 105 106 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 106 107 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 107 108 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 108 109 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{3} 109 110 \setcounter{upm@format@section@sectionlevel}{3}
\setcounter{upm@fmt@savedcounter}{0} 110 111 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 111 112 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 112 113 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 113 114 \setcounter{upmdefinition}{0}
\setcounter{section@level}{3} 114 115 \setcounter{section@level}{3}
\setcounter{Item}{0} 115 116 \setcounter{Item}{0}
\setcounter{Hfootnote}{0} 116 117 \setcounter{Hfootnote}{0}
\setcounter{bookmark@seq@number}{26} 117 118 \setcounter{bookmark@seq@number}{26}
\setcounter{DefaultLines}{2} 118 119 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 119 120 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 120 121 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 121 122 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 122 123 \setcounter{float@type}{8}
\setcounter{algorithm}{0} 123 124 \setcounter{algorithm}{0}
\setcounter{ALG@line}{0} 124 125 \setcounter{ALG@line}{0}
\setcounter{ALG@rem}{0} 125 126 \setcounter{ALG@rem}{0}
\setcounter{ALG@nested}{0} 126 127 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 127 128 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 128 129 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 129 130 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 130 131 \setcounter{ALG@tmpcounter}{0}
} 131 132 }
132 133
chapters/contexte2.tex View file @ 4b1afa3
\chapter{Contexte} 1 1 \chapter{Contexte}\label{chap:contexte}
2 2
Dans ce chapitre sont décrits plus en détails le contexte applicatif et le contexte technique de ces travaux de recherche. Il présente les concepts et algorithmes utilisés dans le développement des modules. Ces modules font partie des contributions de cette thèse à l'environnement informatique pour l'apprentissage humain (EIAH) appelé AI-VT (\textit{Artificial Intelligence - Artificial Trainer}). 3 3 Dans ce chapitre sont décrits plus en détails le contexte applicatif et le contexte technique de ces travaux de recherche. Il présente les concepts et algorithmes utilisés dans le développement des modules. Ces modules font partie des contributions de cette thèse à l'environnement informatique pour l'apprentissage humain (EIAH) appelé AI-VT (\textit{Artificial Intelligence - Artificial Trainer}).
4 4
Ce chapitre commence par une présentation des EIAH suivie d'une présentation sommaire du fonctionnement d'AI-VT. AI-VT étant un système de raisonnement à partir de cas (RàPC) modélisé sous la forme d'un système multi-agents (SMA), cette présentation des EIAH est suivie d'une présentation du RàPC, puis des SMA. Ce chapitre se termine par une présentation de différents algorithmes et notions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées par l'EIAH. 5 5 Ce chapitre commence par une présentation des EIAH suivie d'une présentation sommaire du fonctionnement d'AI-VT. AI-VT étant un système de raisonnement à partir de cas (RàPC) modélisé sous la forme d'un système multi-agents (SMA), cette présentation des EIAH est suivie d'une présentation du RàPC, puis des SMA. Ce chapitre se termine par une présentation de différents algorithmes et notions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées par l'EIAH.
6 6
\section{Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)} 7 7 \section{Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}
%\markboth{Stratégies d'apprentissage et les EIAH}{} 8 8 %\markboth{Stratégies d'apprentissage et les EIAH}{}
\sectionmark{Stratégies d'apprentissage et les EIAH} 9 9 \sectionmark{Stratégies d'apprentissage et les EIAH}
10 10
\subsection{Les stratégies d'apprentissage} 11 11 \subsection{Les stratégies d'apprentissage}
12 12
Dans \cite{LALITHA2020583}, l'apprentissage est défini comme une fonction du cerveau humain acquise grâce au changement permanent dans l'obtention de connaissances et de compétences par le biais d'un processus de transformation du comportement lié à l'expérience ou à la pratique. L'apprentissage implique réflexion, compréhension, raisonnement et mise en œuvre. Un individu peut utiliser différentes stratégies pour acquérir la connaissance. Comme le montre la figure \figref{figStra}, les stratégies peuvent être classées entre mode traditionnel et mode en-ligne. 13 13 Dans \cite{LALITHA2020583}, l'apprentissage est défini comme une fonction du cerveau humain acquise grâce au changement permanent dans l'obtention de connaissances et de compétences par le biais d'un processus de transformation du comportement lié à l'expérience ou à la pratique. L'apprentissage implique réflexion, compréhension, raisonnement et mise en œuvre. Un individu peut utiliser différentes stratégies pour acquérir la connaissance. Comme le montre la figure \figref{figStra}, les stratégies peuvent être classées entre mode traditionnel et mode en-ligne.
14 14
\mfigure[!ht]{width=1\textwidth}{./Figures/TLearning.png}{Stratégies d'apprentissage (Traduit de \cite{LALITHA2020583})}{figStra} 15 15 \mfigure[!ht]{width=1\textwidth}{./Figures/TLearning.png}{Stratégies d'apprentissage (Traduit de \cite{LALITHA2020583})}{figStra}
16 16
%\begin{figure}[!ht] 17 17 %\begin{figure}[!ht]
%\centering 18 18 %\centering
%\includegraphics[width=1\textwidth]{./Figures/TLearning.png} 19 19 %\includegraphics[width=1\textwidth]{./Figures/TLearning.png}
%\caption{Stratégies d'apprentissage (\cite{LALITHA2020583})} 20 20 %\caption{Stratégies d'apprentissage (\cite{LALITHA2020583})}
%\label{figStra} 21 21 %\label{figStra}
%\end{figure} 22 22 %\end{figure}
23 23
L'apprentissage traditionnel se réfère à l'apprentissage-type tel qu'il est fait dans une classe. Il est centré sur l'enseignant où la présence physique est l'élément fondamental dans la mesure où elle implique une unité de temps et de lieu. Ici, l'enseignant interagit directement avec l'élève, et les ressources sont généralement des documents imprimés. L'apprentissage et la participation doivent y être actifs, la rétroaction y est instantanée et il existe des interactions sociales. En revanche, les créneaux horaires, les lieux et les contenus sont rigides (décidés par l'enseignant et la structure dans laquelle les enseignements sont dispensés). 24 24 L'apprentissage traditionnel se réfère à l'apprentissage-type tel qu'il est fait dans une classe. Il est centré sur l'enseignant où la présence physique est l'élément fondamental dans la mesure où elle implique une unité de temps et de lieu. Ici, l'enseignant interagit directement avec l'élève, et les ressources sont généralement des documents imprimés. L'apprentissage et la participation doivent y être actifs, la rétroaction y est instantanée et il existe des interactions sociales. En revanche, les créneaux horaires, les lieux et les contenus sont rigides (décidés par l'enseignant et la structure dans laquelle les enseignements sont dispensés).
25 25
L'autre stratégie globale est l'apprentissage en-ligne, qui s'appuie sur les ressources et l'information disponible sur le web. Cette stratégie incite les apprenants à être actifs pour acquérir de nouvelles connaissances de manière autonome grâce aux nombreuses ressources disponibles. Les points positifs de cette stratégie sont par exemple la rentabilité, la mise à niveau continue des compétences et des connaissances ou une plus grande opportunité d'accéder au contenu du monde entier. Pour l'apprenant, l'auto-motivation et l'interaction peuvent être des défis à surmonter. Pour l'enseignant, il est parfois difficile d'évaluer l'évolution du processus d'apprentissage de l'individu. L'apprentissage en-ligne fait aussi référence à l'utilisation de dispositifs électroniques pour apprendre (\textit{e-learning}) où les apprenants peuvent être guidés par l'enseignant à travers des liens, du matériel spécifique d'apprentissage, des activités ou exercices. 26 26 L'autre stratégie globale est l'apprentissage en-ligne, qui s'appuie sur les ressources et l'information disponible sur le web. Cette stratégie incite les apprenants à être actifs pour acquérir de nouvelles connaissances de manière autonome grâce aux nombreuses ressources disponibles. Les points positifs de cette stratégie sont par exemple la rentabilité, la mise à niveau continue des compétences et des connaissances ou une plus grande opportunité d'accéder au contenu du monde entier. Pour l'apprenant, l'auto-motivation et l'interaction peuvent être des défis à surmonter. Pour l'enseignant, il est parfois difficile d'évaluer l'évolution du processus d'apprentissage de l'individu. L'apprentissage en-ligne fait aussi référence à l'utilisation de dispositifs électroniques pour apprendre (\textit{e-learning}) où les apprenants peuvent être guidés par l'enseignant à travers des liens, du matériel spécifique d'apprentissage, des activités ou exercices.
27 27
Il existe également des stratégies hybrides combinant des caractéristiques des deux stratégies fondamentales, comme un cours en-ligne mais avec quelques séances en présentiel pour des activités spécifiques ou des cours traditionnels avec du matériel d'apprentissage complémentaire en-ligne. 28 28 Il existe également des stratégies hybrides combinant des caractéristiques des deux stratégies fondamentales, comme un cours en-ligne mais avec quelques séances en présentiel pour des activités spécifiques ou des cours traditionnels avec du matériel d'apprentissage complémentaire en-ligne.
29 29
\subsection{Les EIAH} 30 30 \subsection{Les EIAH}
31 31
\mfigure[!h]{width=\textwidth}{./Figures/EIAH.png}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite{Nkambou})}{figEIAH} 32 32 \mfigure[!h]{width=\textwidth}{./Figures/EIAH.png}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite{Nkambou})}{figEIAH}
33 33
Les EIAH sont des outils pour aider les apprenants dans le processus d'apprentissage et l'acquisition de la connaissance. Ces outils sont conçus pour fonctionner avec des stratégies d'apprentissage en ligne et mixtes. Généralement, l'architecture de ces systèmes est divisée en quatre composants comme le montre la figure \figref{figEIAH}. Ces composants sont : 34 34 Les EIAH sont des outils pour aider les apprenants dans le processus d'apprentissage et l'acquisition de la connaissance. Ces outils sont conçus pour fonctionner avec des stratégies d'apprentissage en ligne et mixtes. Généralement, l'architecture de ces systèmes est divisée en quatre composants comme le montre la figure \figref{figEIAH}. Ces composants sont :
\begin{itemize} 35 35 \begin{itemize}
\item Le \textit{domaine} (\textit{ Modèle du domain} sur la figure \figref{figEIAH}), qui contient les concepts, les règles et les stratégies pour résoudre des problèmes dans un domaine spécifique. Ce composant peut détecter et corriger les erreurs des apprenants. En général, l'information est divisée en séquences pédagogiques. 36 36 \item Le \textit{domaine} (\textit{Modèle du domaine} sur la figure \figref{figEIAH}), qui contient les concepts, les règles et les stratégies pour résoudre des problèmes dans un domaine spécifique. Ce composant peut détecter et corriger les erreurs des apprenants. En général, l'information est divisée en séquences pédagogiques.
\item Le composant \textit{apprenant} (\textit{Modèle de l'apprenant} sur la figure \figref{figEIAH}), qui est le noyau du système car il contient toute l'information utile à l'EIAH concernant l'apprenant (\textit{Utilisateur-Apprenant} sur la figure \figref{figEIAH}). Ce composant contient également les informations sur l'évolution de l'acquisition des compétences de l'apprenant. Ce module doit avoir les informations implicites et explicites pour pouvoir créer une représentation des connaissances acquises, non et partiellement acquises et l'évolution de l'apprentissage de l'apprenant. Ces informations doivent permettre de générer un diagnostic de l'état de la connaissance de l'apprenant, à partir duquel le système peut prédire les résultats dans certains domaines et choisir la stratégie optimale pour présenter les nouveaux contenus. 37 37 \item Le composant \textit{apprenant} (\textit{Modèle de l'apprenant} sur la figure \figref{figEIAH}), qui est le noyau du système car il contient toute l'information utile à l'EIAH concernant l'apprenant (\textit{Utilisateur-Apprenant} sur la figure \figref{figEIAH}). Ce composant contient également les informations sur l'évolution de l'acquisition des compétences de l'apprenant. Ce module doit avoir les informations implicites et explicites pour pouvoir créer une représentation des connaissances acquises, non et partiellement acquises et l'évolution de l'apprentissage de l'apprenant. Ces informations doivent permettre de générer un diagnostic de l'état de la connaissance de l'apprenant, à partir duquel le système peut prédire les résultats dans certains domaines et choisir la stratégie optimale pour présenter les nouveaux contenus.
\item L'\textit{enseignant} (\textit{Modèle du Tutorat} sur la figure \figref{figEIAH}) est également modélisé sous la forme d'un composant. Il reçoit l'information des modules précédents, information grâce à laquelle il peut prendre des décisions sur le changement de parcours ou sur la stratégie d'apprentissage. Il peut également interagir avec l'apprenant. 38 38 \item L'\textit{enseignant} (\textit{Modèle du Tutorat} sur la figure \figref{figEIAH}) est également modélisé sous la forme d'un composant. Il reçoit l'information des modules précédents, information grâce à laquelle il peut prendre des décisions sur le changement de parcours ou sur la stratégie d'apprentissage. Il peut également interagir avec l'apprenant.
\item L'\textit{interface} (\textit{Interface} sur la figure \figref{figEIAH}) est le module chargé de la gestion des configurations de l'EIAH et des interactions entre ses composants. 39 39 \item L'\textit{interface} (\textit{Interface} sur la figure \figref{figEIAH}) est le module chargé de la gestion des configurations de l'EIAH et des interactions entre ses composants.
\end{itemize} 40 40 \end{itemize}
41 41
Le développement et la configuration de ce type de systèmes relèvent de multiples disciplines et impliquent plusieurs domaines de recherche parmi lesquels figurent la pédagogie, l'éducation, la psychologie, les sciences cognitives et l'intelligence artificielle. 42 42 Le développement et la configuration de ce type de systèmes relèvent de multiples disciplines et impliquent plusieurs domaines de recherche parmi lesquels figurent la pédagogie, l'éducation, la psychologie, les sciences cognitives et l'intelligence artificielle.
43 43
%\subsection{Traitement du langage naturel (NLP)} 44 44 %\subsection{Traitement du langage naturel (NLP)}
% 45 45 %
%Le traitement du langage naturel est un domaine de recherche interdisciplinaire qui essaie à travers de multiples méthodes analyser et faire comprendre aux machines le langage et la communication humaine. Ce domaine est catégorisé comme une branche de l'intelligence artificielle \cite{kedia2020hands}.\\ 46 46 %Le traitement du langage naturel est un domaine de recherche interdisciplinaire qui essaie à travers de multiples méthodes analyser et faire comprendre aux machines le langage et la communication humaine. Ce domaine est catégorisé comme une branche de l'intelligence artificielle \cite{kedia2020hands}.\\
% 47 47 %
%Comme on peut lire dans \cite{ghosh2019natural}, le NLP est constitué de plusieurs tâches standardisées, entre elles, la tokenisation qui est la procédure qui consiste à diviser une phrase en ses mots constitutifs, par exemple le résultat de tokeniser la phrase "Je lis un livre", est "Je", "lis", "un", "livre"; avec cet exemple on a tokenisée la phrase en utilisant uni-grams, c'est-à-dire des tokens de taille un, mais on peut extraire des ensembles de tokens, si on divise la phrase en paires de tokens alors on parle de bi-grams: "Je lis", "un livre"; en général on parle de n-grams où "n" est le nombre de tokens.\\ 48 48 %Comme on peut lire dans \cite{ghosh2019natural}, le NLP est constitué de plusieurs tâches standardisées, entre elles, la tokenisation qui est la procédure qui consiste à diviser une phrase en ses mots constitutifs, par exemple le résultat de tokeniser la phrase "Je lis un livre", est "Je", "lis", "un", "livre"; avec cet exemple on a tokenisée la phrase en utilisant uni-grams, c'est-à-dire des tokens de taille un, mais on peut extraire des ensembles de tokens, si on divise la phrase en paires de tokens alors on parle de bi-grams: "Je lis", "un livre"; en général on parle de n-grams où "n" est le nombre de tokens.\\
% 49 49 %
%Une autre tâche fondamentale du NLP est le "PoS Tagging" qui ajoute des identificateurs à chacun des tokens d'une phrase avec le propos de faciliter l'analyse et le filtrage du contenu des phrases. Ainsi "Le ciel est bleu", est [("Le", "AR"), ("ciel", "NN"), ("est", "VBZ"), ("bleu", "JJ")], où AR: article, NN: nom, VBZ: verbe troisième personne, JJ: adjectif. Ainsi, il est possible de connaître et de filtrer les phrases par la catégorisation de leur contenu.\\ 50 50 %Une autre tâche fondamentale du NLP est le "PoS Tagging" qui ajoute des identificateurs à chacun des tokens d'une phrase avec le propos de faciliter l'analyse et le filtrage du contenu des phrases. Ainsi "Le ciel est bleu", est [("Le", "AR"), ("ciel", "NN"), ("est", "VBZ"), ("bleu", "JJ")], où AR: article, NN: nom, VBZ: verbe troisième personne, JJ: adjectif. Ainsi, il est possible de connaître et de filtrer les phrases par la catégorisation de leur contenu.\\
% 51 51 %
%La tokenisation et le "PoS Tagging" fonctionnent avec les caractères qui font partie de l'alphabet, mais les phrases communément écrites contient aussi des caractères symboliques qui représentent des aspects complémentaires du langage et qui ne sont pas considérés dans les analyses, car ils n'apportent pas d'information significative. La tâche d'effacer les symboles jugés inutiles s'appelle "cleaning text", usuellement ces symboles sont les signes de ponctuation et parfois les articles définis / indéfinis et les mots qui servent de lien comme par exemple en français: "le", "la", "les", "est", "et", etc. Il y a d'autres tâches qui sont utilisées aussi dans NLP, mais elles sont plus spécifiques comme: normalisation, correction, "stemming", "lemmatization", "NER", etc. Elles peuvent être consultées plus en détail et avec exemples de code dans \cite{ghosh2019natural}.\\ 52 52 %La tokenisation et le "PoS Tagging" fonctionnent avec les caractères qui font partie de l'alphabet, mais les phrases communément écrites contient aussi des caractères symboliques qui représentent des aspects complémentaires du langage et qui ne sont pas considérés dans les analyses, car ils n'apportent pas d'information significative. La tâche d'effacer les symboles jugés inutiles s'appelle "cleaning text", usuellement ces symboles sont les signes de ponctuation et parfois les articles définis / indéfinis et les mots qui servent de lien comme par exemple en français: "le", "la", "les", "est", "et", etc. Il y a d'autres tâches qui sont utilisées aussi dans NLP, mais elles sont plus spécifiques comme: normalisation, correction, "stemming", "lemmatization", "NER", etc. Elles peuvent être consultées plus en détail et avec exemples de code dans \cite{ghosh2019natural}.\\
% 53 53 %
%L'exécution des tâches précitées est appelée prétraitement du texte, l'idée est de donner au texte un format pour l'envoyer comme donnée d'entré à un modèle chargé de l'analyser selon un certain objectif prédétermine. Les modèles de NLP se basent en algorithmes d'apprentissage automatique qui fonctionnent avec données numériques, alors les modèles doivent convertir le texte vers une représentation numérique, cette transformation s'appelle "vectorization" ou "vector embeddings". L'une des méthodes les plus simples et les plus élémentaires est le "BoW (Bag of Words) Model" qui génère un vecteur avec les fréquences de chaque mot d'un alphabet dans une phrase, comme le montre la figure \figref{figBOW}, les limitations principales du "BoW Model" sont d'abord que les vecteurs de représentation générés sont creuses, et aussi il n'y a pas de préservation de l'ordre des mots, alors on perdre contexte et signification des phrases et du texte. Une autre modèle est TF-IDF qui normalise les fréquences d'apparition et essaie d'associer une importance aux mots, ce qui évite d'analyser la pertinence de chaque mot seulement par sa fréquence d'apparition dans le texte. Autres modèles de vectorisation plus sophistiqués comme les réseaux de neurones (Word2vec, Doc2Vec, fastText) peuvent être consultés dans \cite{kedia2020hands}.\\ 54 54 %L'exécution des tâches précitées est appelée prétraitement du texte, l'idée est de donner au texte un format pour l'envoyer comme donnée d'entré à un modèle chargé de l'analyser selon un certain objectif prédétermine. Les modèles de NLP se basent en algorithmes d'apprentissage automatique qui fonctionnent avec données numériques, alors les modèles doivent convertir le texte vers une représentation numérique, cette transformation s'appelle "vectorization" ou "vector embeddings". L'une des méthodes les plus simples et les plus élémentaires est le "BoW (Bag of Words) Model" qui génère un vecteur avec les fréquences de chaque mot d'un alphabet dans une phrase, comme le montre la figure \figref{figBOW}, les limitations principales du "BoW Model" sont d'abord que les vecteurs de représentation générés sont creuses, et aussi il n'y a pas de préservation de l'ordre des mots, alors on perdre contexte et signification des phrases et du texte. Une autre modèle est TF-IDF qui normalise les fréquences d'apparition et essaie d'associer une importance aux mots, ce qui évite d'analyser la pertinence de chaque mot seulement par sa fréquence d'apparition dans le texte. Autres modèles de vectorisation plus sophistiqués comme les réseaux de neurones (Word2vec, Doc2Vec, fastText) peuvent être consultés dans \cite{kedia2020hands}.\\
% 55 55 %
%\mfigure[!ht]{scale=0.7}{./Figures/BoW.png}{Bag of words pour une phrase}{figBOW} 56 56 %\mfigure[!ht]{scale=0.7}{./Figures/BoW.png}{Bag of words pour une phrase}{figBOW}
% 57 57 %
%%\begin{figure} 58 58 %%\begin{figure}
%%\centering 59 59 %%\centering
%%\includegraphics[scale=0.7]{./Figures/BoW.png} 60 60 %%\includegraphics[scale=0.7]{./Figures/BoW.png}
%%\caption{Bag of words pour une phrase.} 61 61 %%\caption{Bag of words pour une phrase.}
%%\label{figBOW} 62 62 %%\label{figBOW}
%%\end{figure} 63 63 %%\end{figure}
64 64
\subsection{L'exerciseur initial AI-VT} 65 65 \subsection{L'exerciseur initial AI-VT}
66 66
Le DISC travaille depuis plusieurs années sur l'utilisation potentielle de l'intelligence artificielle dans le cadre d'un exerciseur couvrant plusieurs domaines d'apprentissage. Cet exerciseur, appelé AI-VT(Artificial Intelligence Virtual Trainer) est fondé sur différents concepts d'intelligence artificielle et ses domaines d'application sont l'apprentissage de l'aïkido, des bases de l'algorithmique et de l'anglais. Un premier réseau de convolution détermine les lacunes de l'apprenant en analysant les résultats de quelques exercices préliminaires. Puis un système de raisonnement à partir de cas distribué prend le relais et détermine une liste d'exercices à proposer en regard de ses lacunes et en tenant compte des séances qui ont déjà été proposées par le système à cet apprenant. 67 67 Le DISC travaille depuis plusieurs années sur l'utilisation potentielle de l'intelligence artificielle dans le cadre d'un exerciseur couvrant plusieurs domaines d'apprentissage. Cet exerciseur, appelé AI-VT(Artificial Intelligence Virtual Trainer) est fondé sur différents concepts d'intelligence artificielle et ses domaines d'application sont l'apprentissage de l'aïkido, des bases de l'algorithmique et de l'anglais. Un premier réseau de convolution détermine les lacunes de l'apprenant en analysant les résultats de quelques exercices préliminaires. Puis un système de raisonnement à partir de cas distribué prend le relais et détermine une liste d'exercices à proposer en regard de ses lacunes et en tenant compte des séances qui ont déjà été proposées par le système à cet apprenant.
68 68
Dans le système AI-VT, une séance d'entraînement est proposée dans le cadre d'un cycle d'entraînement. Ainsi, un exercice proposé en première séance du cycle peut être reproposé ensuite dans une autre séance, afin de consolider les acquis et de remettre en mémoire certaines connaissances à l'apprenant. Une séance est entièrement consacrée à une seule et même compétence, déclinée en plusieurs sous-compétences. Des exercices dans différentes sous-compétences sont proposées à chaque séance. Les exercices d'une même sous-compétence sont regroupés. Un même exercice pouvant permettre de travailler deux sous-compétences différentes, un mécanisme de règlement des conflits a été implémenté dans AI-VT afin qu'un même exercice ne puisse être proposé plus d'une seule fois dans une même séance d'entraînement. Dans AI-VT, l'énoncé d'un exercice est constitué de deux parties : le contexte et la question. Cette structure modulaire permet d'associer plusieurs questions à un même contexte et inversement. Les réponses apportées par les apprenants à chaque exercice sont notées sur 10 points et le temps mis pour répondre à chaque question est comptabilisée. L'étudiant dispose d'une interface présentant un tableau de bord des exercices, sous-compétences et compétences qu'il ou elle a travaillé. 69 69 Dans le système AI-VT, une séance d'entraînement est proposée dans le cadre d'un cycle d'entraînement. Ainsi, un exercice proposé en première séance du cycle peut être reproposé ensuite dans une autre séance, afin de consolider les acquis et de remettre en mémoire certaines connaissances à l'apprenant. Une séance est entièrement consacrée à une seule et même compétence, déclinée en plusieurs sous-compétences. Des exercices dans différentes sous-compétences sont proposées à chaque séance. Les exercices d'une même sous-compétence sont regroupés. Un même exercice pouvant permettre de travailler deux sous-compétences différentes, un mécanisme de règlement des conflits a été implémenté dans AI-VT afin qu'un même exercice ne puisse être proposé plus d'une seule fois dans une même séance d'entraînement. Dans AI-VT, l'énoncé d'un exercice est constitué de deux parties : le contexte et la question. Cette structure modulaire permet d'associer plusieurs questions à un même contexte et inversement. Les réponses apportées par les apprenants à chaque exercice sont notées sur 10 points et le temps mis pour répondre à chaque question est comptabilisé. L'apprenant dispose d'une interface présentant un tableau de bord des exercices, sous-compétences et compétences qu'il ou elle a travaillé.
70 70
Pour l'apprentissage de l'Anglais, un robot est chargé d'énoncer les exercices de la séance. Au démarrage de cette thèse, les apprenants ont une liste personnalisée d'exercices proposée par le système AI-VT, mais c'est à l'enseignant de vérifier la validité des algorithmes/solutions proposés par les étudiants et d'identifier leurs difficultés. L'amélioration du système et de la personnalisation du parcours de l'apprenant implique une correction automatique des exercices et cela sans utiliser un entraînement spécifique à chaque exercice, mais cet objectif ne fait pas partie de cette thèse. La définition de profils d'apprenants par le recueil de traces reste également à travailler pour optimiser les aides et séances d'exercices. 71 71 Pour l'apprentissage de l'anglais, un robot est chargé d'énoncer les exercices de la séance. Au démarrage de cette thèse, les apprenants ont une liste personnalisée d'exercices proposée par le système AI-VT, mais c'est à l'enseignant de vérifier la validité des algorithmes/solutions proposés par les apprenants et d'identifier leurs difficultés. L'amélioration du système et de la personnalisation du parcours de l'apprenant implique une correction automatique des exercices et cela sans utiliser un entraînement spécifique à chaque exercice, mais cet objectif ne fait pas partie de cette thèse. La définition de profils d'apprenants par le recueil de traces reste également à travailler pour optimiser les aides et séances d'exercices.
72 72
Le système AI-VT a été implémenté en se fondant sur deux paradigmes de l'IA : la séance d'entraînement est construite par différents modules suivant la philosophie du raisonnement à partir de cas, et l'architecture logicielle a été modélisée selon un système multi-agents. Une présentation sommaire de ces deux paradigmes de l'IA sont présentés dans cette section, et celles-ci sont suivies de la présentation de différents algorithmes et fonctions implémentés dans l'EIAH AI-VT. Des états de l'art plus complets sur les EIAH et le RàPC sont présentés dans le chapitre suivant. Le système AI-VT, son architecture et les évolutions qui ont été réalisées sur celle-ci sont détaillés dans le chapitre 4. 73 73 Le système AI-VT a été implémenté en se fondant sur deux paradigmes de l'IA : la séance d'entraînement est construite par différents modules suivant la philosophie du raisonnement à partir de cas, et l'architecture logicielle a été modélisée selon un système multi-agents. Une présentation sommaire de ces deux paradigmes de l'IA sont présentés dans cette section, et celles-ci sont suivies de la présentation de différents algorithmes et fonctions implémentés dans l'EIAH AI-VT. Des états de l'art plus complets sur les EIAH et le RàPC sont présentés dans le chapitre suivant. Le système AI-VT, son architecture et les évolutions qui ont été réalisées sur celle-ci sont détaillés dans le chapitre 4.
74 74
\section{Le contexte technique} 75 75 \section{Le contexte technique}
76 76
\subsection{Le raisonnement à partir de cas (RàPC)} 77 77 \subsection{Le raisonnement à partir de cas (RàPC)}
78 78
Le raisonnement à partir de cas est un modèle de raisonnement fondé sur l'hypothèse que les problèmes similaires ont des solutions similaires. Ainsi, les systèmes de RàPC infèrent une solution à un problème posé à partir des solutions mises en œuvre auparavant pour résoudre d'autres problèmes similaires \cite{ROLDANREYES20151}. 79 79 Le raisonnement à partir de cas est un modèle de raisonnement fondé sur l'hypothèse que les problèmes similaires ont des solutions similaires. Ainsi, les systèmes de RàPC infèrent une solution à un problème posé à partir des solutions mises en œuvre auparavant pour résoudre d'autres problèmes similaires \cite{ROLDANREYES20151}.
80 80
Un cas est défini comme étant la représentation d'un problème et la description de sa solution. Les cas résolus sont stockés et permettent au système de RàPC de construire de nouveaux cas à partir de ceux-ci. Formellement, si $P$ est l'espace des problèmes et $S$ l'espace des solutions, alors un problème $x$ et sa solution $y$ appartiennent à ces espaces : $x \in P$ et $y \in S$. Si $y$ est solution de $x$ alors, un cas est représenté par le couple $(x,y) \in P \times S$. Le RàPC a besoin d'une base de $N$ problèmes et de leurs solutions associées. Cette base est appelée base de cas. Ainsi tout cas d'indice $n \in [1,N]$ de cette base de cas est formalisé de la manière suivante : $(x^n, y^n)$. L'objectif du RàPC est, étant donné un nouveau problème $x^z$ de trouver sa solution $y^z$ en utilisant les cas stockés dans la base de cas \cite{10.1007/978-3-030-58342-2_20}. 81 81 Un cas est défini comme étant la représentation d'un problème et la description de sa solution. Les cas résolus sont stockés et permettent au système de RàPC de construire de nouveaux cas à partir de ceux-ci. Formellement, si $P$ est l'espace des problèmes et $S$ l'espace des solutions, alors un problème $x$ et sa solution $y$ appartiennent à ces espaces : $x \in P$ et $y \in S$. Si $y$ est solution de $x$ alors, un cas est représenté par le couple $(x,y) \in P \times S$. Le RàPC a besoin d'une base de $N$ problèmes et de leurs solutions associées. Cette base est appelée base de cas. Ainsi tout cas d'indice $n \in [1,N]$ de cette base de cas est formalisé de la manière suivante : $(x^n, y^n)$. L'objectif du RàPC est, étant donné un nouveau problème $x^z$, de trouver sa solution $y^z$ en utilisant les cas stockés dans la base de cas \cite{10.1007/978-3-030-58342-2_20}.
82 82
\mfigure[!ht]{width=\textwidth}{./Figures/cycle.png}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite{min8100434})}{figCycle} 83 83 \mfigure[!ht]{width=\textwidth}{./Figures/cycle.png}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite{min8100434})}{figCycle}
84 84
%\begin{figure} 85 85 %\begin{figure}
%\centering 86 86 %\centering
%\includegraphics[scale=30]{./Figures/cycle.png} 87 87 %\includegraphics[scale=30]{./Figures/cycle.png}
%\caption{Cycle fondamental du raisonnement à partir de cas %(\cite{min8100434})} 88 88 %\caption{Cycle fondamental du raisonnement à partir de cas %(\cite{min8100434})}
%\label{figCycle} 89 89 %\label{figCycle}
%\end{figure} 90 90 %\end{figure}
91 91
Le processus du RàPC est divisé en quatre étapes formant un cycle comme l'ont proposé Aamont et Plaza \cite{doi:10.3233/AIC-1994-7104}. La figure \figref{figCycle} montre le cycle, le flux d'informations ainsi que les relations entre chacune des étapes \cite{min8100434}: retrouver (rechercher), réutiliser (adapter), réviser et retenir (stocker). Chacune des étapes est décrite dans \cite{Richter2013} de la manière suivante. 92 92 Le processus du RàPC est divisé en quatre étapes formant un cycle comme l'ont proposé Aamont et Plaza \cite{doi:10.3233/AIC-1994-7104}. La figure \figref{figCycle} montre le cycle, le flux d'informations ainsi que les relations entre chacune des étapes \cite{min8100434}: retrouver (rechercher), réutiliser (adapter), réviser et retenir (stocker). Chacune des étapes est décrite dans \cite{Richter2013} de la manière suivante.
93 93
\subsubsection{Retrouver (Rechercher)} 94 94 \subsubsection{Retrouver (Rechercher)}
L'objectif de cette étape est de rechercher dans la base de cas, les cas similaires à un nouveau cas donné. Cette similarité n'est pas un concept général, mais dépend du contexte, de l'objectif et du type de données. La question fondamentale qui se pose dans cette étape est: quel est le cas le plus approprié dans la base de cas qui permet de réutiliser sa solution pour résoudre le nouveau problème donné ? 95 95 L'objectif de cette étape est de rechercher dans la base de cas, les cas similaires à un nouveau cas donné. Cette similarité n'est pas un concept général, mais dépend du contexte, de l'objectif et du type de données. La question fondamentale qui se pose dans cette étape est: quel est le cas le plus approprié dans la base de cas qui permet de réutiliser sa solution pour résoudre le nouveau problème donné ?
96 96
Le nouveau cas est comparé à chaque cas de la base afin d'en évaluer la similitude. La comparaison entre les cas est différente selon la structure de la base et la manière dont les problèmes sont décrits dans celle-ci. Généralement, un problème est représenté par un ensemble d'attributs aux valeurs spécifiques. Cette représentation est connue comme la représentation attribut-valeur. La similitude entre deux cas de ce type est calculée suivant l'équation \ref{eqSim}. La similitude entre deux cas attribut-valeur $c_1={a_{1,1}, a_{1,1}, ..., a_{1,n}}$ et $c_2={a_{2,1}, a_{2,1}, ..., a_{2,n}}$ est la somme pondérée des similitudes entre les attributs considérés individuellement. La pondération détermine l'importance de chaque attribut. 97 97 Le nouveau cas est comparé à chaque cas de la base afin d'en évaluer la similitude. La comparaison entre les cas est différente selon la structure de la base et la manière dont les problèmes sont décrits dans celle-ci. Généralement, un problème est représenté par un ensemble d'attributs aux valeurs spécifiques. Cette représentation est connue comme la représentation attribut-valeur. La similitude entre deux cas de ce type est calculée suivant l'équation \ref{eqSim}. La similitude entre deux cas attribut-valeur $c_1={a_{1,1}, a_{1,1}, ..., a_{1,n}}$ et $c_2={a_{2,1}, a_{2,1}, ..., a_{2,n}}$ est la somme pondérée des similitudes entre les attributs considérés individuellement. La pondération détermine l'importance de chaque attribut.
98 98
\begin{equation} 99 99 \begin{equation}
\sum_{i=1}^n \omega_i \; sim (a_{1,i}, a_{2,i}) 100 100 \sum_{i=1}^n \omega_i \; sim (a_{1,i}, a_{2,i})
\label{eqSim} 101 101 \label{eqSim}
\end{equation} 102 102 \end{equation}
103 103
Dans cette étape, il est possible de sélectionner $k$ différents cas similaires au nouveau cas donné. 104 104 Dans cette étape, il est possible de sélectionner $k$ différents cas similaires au nouveau cas donné.
105 105
\subsubsection{Réutiliser (Adapter)} 106 106 \subsubsection{Réutiliser (Adapter)}
L'idée du RàPC est d'utiliser l'expérience pour essayer de résoudre de nouveaux cas (problèmes). La figure \figref{figReut} montre le principe de réutilisation d'un cas (problème) résolu (appelé \textit{cas source}) auparavant pour le proposer en solution d'un nouveau cas (dénommé \textit{cas cible}) après adaptation. 107 107 L'idée du RàPC est d'utiliser l'expérience pour essayer de résoudre de nouveaux cas (problèmes). La figure \figref{figReut} montre le principe de réutilisation d'un cas (problème) résolu (appelé \textit{cas source}) auparavant pour le proposer en solution d'un nouveau cas (dénommé \textit{cas cible}) après adaptation.
108 108
Si certains cas cibles sont très similaires au cas source le plus proche, il est cependant souvent nécessaire d'adapter la solution du cas source le plus similaire afin d'arriver à une solution satisfaisante pour le cas cible. De la même manière que pour la phase de recherche du cas le plus similaire, il existe de nombreuses stratégies d'adaptation. Celles-ci dépendent de la représentation des cas, du contexte dans lequel le RàPC est mis en œuvre et des algorithmes utilisés pour l'adaptation. L'une des stratégies les plus utilisées est la définition d'un ensemble de règles transformant la 109 109 Si certains cas cibles sont très similaires au cas source le plus proche, il est cependant souvent nécessaire d'adapter la solution du cas source le plus similaire afin d'arriver à une solution satisfaisante pour le cas cible. De la même manière que pour la phase de recherche du cas le plus similaire, il existe de nombreuses stratégies d'adaptation. Celles-ci dépendent de la représentation des cas, du contexte dans lequel le RàPC est mis en œuvre et des algorithmes utilisés pour l'adaptation. L'une des stratégies les plus utilisées est la définition d'un ensemble de règles transformant la
ou les solutions des cas sources les plus similaires au cas cible. L'objectif ici est d'inférer une nouvelle solution $y^z$ du cas $x^z$ à partir des $k$ cas sources retrouvés dans la première étape. 110 110 ou les solutions des cas sources les plus similaires au cas cible. L'objectif ici est d'inférer une nouvelle solution $y^z$ du cas $x^z$ à partir des $k$ cas sources retrouvés dans la première étape.
111 111
\mfigure[!ht]{width=0.7\textwidth}{./Figures/Reuse.png}{Principe de réutilisation dans le RàPC (Traduit de \cite{Richter2013})}{figReut} 112 112 \mfigure[!ht]{width=0.7\textwidth}{./Figures/Reuse.png}{Principe de réutilisation dans le RàPC (Traduit de \cite{Richter2013})}{figReut}
113 113
%\begin{figure} 114 114 %\begin{figure}
%\centering 115 115 %\centering
%\includegraphics[scale=20]{./Figures/Reuse.png} 116 116 %\includegraphics[scale=20]{./Figures/Reuse.png}
%\caption{Principe de réutilisation dans le RàPC (\cite{Richter2013})} 117 117 %\caption{Principe de réutilisation dans le RàPC (\cite{Richter2013})}
%\label{figReut} 118 118 %\label{figReut}
%\end{figure} 119 119 %\end{figure}
120 120
\subsubsection{Réviser et Réparer} 121 121 \subsubsection{Réviser et Réparer}
122 122
La solution adaptée proposée doit ensuite être évaluée et révisée afin de satisfaire certains critères de validation. L'étape de révision est chargée d'évaluer l'applicabilité de la solution cible obtenue suite à l'étape "adaptation". Cette évaluation peut être réalisée dans le monde réel ou dans une simulation. 123 123 La solution adaptée proposée doit ensuite être évaluée et révisée afin de satisfaire certains critères de validation. L'étape de révision est chargée d'évaluer l'applicabilité de la solution cible obtenue suite à l'étape "adaptation". Cette évaluation peut être réalisée dans le monde réel ou dans une simulation.
124 124
L'objectif de cette phase de révision est la validation du couple $(x^z, y^z)$. Autrement dit, le but est ici de vérifier si la solution trouvée $y^z$ résout le problème $x^z$ et satisfait les règles de validité et d'applicabilité. Si la solution n'est pas correcte, l'expert mettant en œuvre la solution doit ajuster ou modifier la solution cible proposée. 125 125 L'objectif de cette phase de révision est la validation du couple $(x^z, y^z)$. Autrement dit, le but est ici de vérifier si la solution trouvée $y^z$ résout le problème $x^z$ et satisfait les règles de validité et d'applicabilité. Si la solution n'est pas correcte, l'expert mettant en œuvre la solution doit ajuster ou modifier la solution cible proposée.
126 126
Le processus d'évaluation, de révision et de réparation peut être mis en œuvre via un processus d'apprentissage permettant d'améliorer la détection et la correction des failles des futures solutions générées. Dans les travaux de cette thèse, nous avons envisagé la possibilité d'utiliser différents outils d'apprentissage pour évaluer et réviser les solutions cibles dans certains cas particuliers. 127 127 Le processus d'évaluation, de révision et de réparation peut être mis en œuvre via un processus d'apprentissage permettant d'améliorer la détection et la correction des failles des futures solutions générées. Dans les travaux de cette thèse, nous avons envisagé la possibilité d'utiliser différents outils d'apprentissage pour évaluer et réviser les solutions cibles dans certains cas particuliers.
128 128
L'évaluation peut être faite : 129 129 L'évaluation peut être faite :
\begin{itemize} 130 130 \begin{itemize}
\item par un expert humain capable d'évaluer la solution et sa pertinence dans le contexte applicatif, 131 131 \item par un expert humain capable d'évaluer la solution et sa pertinence dans le contexte applicatif,
\item par un système fonctionnant en production et renvoyant le résultat de l'application de la solution, 132 132 \item par un système fonctionnant en production et renvoyant le résultat de l'application de la solution,
\item par un modèle statistique ou un système de test. 133 133 \item par un modèle statistique ou un système de test.
\end{itemize} 134 134 \end{itemize}
135 135
La correction des solutions peut être automatique, mais elle dépend du domaine et de l'information disponible. Un ensemble de règles peut aider à identifier les solutions non valides. 136 136 La correction des solutions peut être automatique, mais elle dépend du domaine et de l'information disponible. Un ensemble de règles peut aider à identifier les solutions non valides.
137 137
\subsubsection{Retenir (Stocker)} 138 138 \subsubsection{Retenir (Stocker)}
139 139
Si le cas cible résolu est jugé pertinent, alors celui-ci peut être stocké dans la base de cas pour aider ensuite à la résolution de futurs cas cibles. 140 140 Si le cas cible résolu est jugé pertinent, alors celui-ci peut être stocké dans la base de cas pour aider ensuite à la résolution de futurs cas cibles.
La décision de stocker ou non un nouveau cas dans la base de cas doit tenir compte de la capacité de cette nouvelle base de cas à proposer de futures solutions pertinentes, évaluer et corriger les solutions cibles générées d'une part, et maintenir une base de cas d'une taille ne gaspillant pas inutilement des ressources de stockage et de calculs du système de RàPC d'autre part. 141 141 La décision de stocker ou non un nouveau cas dans la base de cas doit tenir compte de la capacité de cette nouvelle base de cas à proposer de futures solutions pertinentes, évaluer et corriger les solutions cibles générées d'une part, et maintenir une base de cas d'une taille ne gaspillant pas inutilement des ressources de stockage et de calculs du système de RàPC d'autre part.
142 142
\subsubsection{Conteneurs de Connaissance} 143 143 \subsubsection{Conteneurs de Connaissance}
144 144
Pour pouvoir exécuter le cycle complet, le RàPC dépend de quatre sources différentes d'information. Ces sources sont appelées les conteneurs de connaissances par \cite{RICHTER20093}. Cet article définit les conteneurs suivants dans les systèmes de RàPC : le conteneur de cas, le conteneur d'adaptation, le conteneur du vocabulaire et le conteneur de similarité : 145 145 Pour pouvoir exécuter le cycle complet, le RàPC dépend de quatre sources différentes d'information. Ces sources sont appelées les conteneurs de connaissances par \cite{RICHTER20093}. Cet article définit les conteneurs suivants dans les systèmes de RàPC : le conteneur de cas, le conteneur d'adaptation, le conteneur du vocabulaire et le conteneur de similarité :
146 146
\begin{itemize} 147 147 \begin{itemize}
\item Le conteneur de cas contient les expériences passées que le système peut utiliser pour résoudre les nouveaux problèmes. L'information est structurée sous la forme d'un couple $(p, s)$, où $p$ est la description d'un problème et $s$ est la description de sa solution. 148 148 \item Le conteneur de cas contient les expériences passées que le système peut utiliser pour résoudre les nouveaux problèmes. L'information est structurée sous la forme d'un couple $(p, s)$, où $p$ est la description d'un problème et $s$ est la description de sa solution.
\item Le conteneur d'adaptation stocke la ou les stratégies d'adaptation ainsi que les règles et paramètres nécessaires pour les exécuter. 149 149 \item Le conteneur d'adaptation stocke la ou les stratégies d'adaptation ainsi que les règles et paramètres nécessaires pour les exécuter.
\item Le conteneur du vocabulaire contient l'information, sa signification et sa terminologie. Les éléments comme les entités, les attributs, les fonctions ou les relations entre les entités peuvent y être décrits. 150 150 \item Le conteneur du vocabulaire contient l'information, sa signification et sa terminologie. Les éléments comme les entités, les attributs, les fonctions ou les relations entre les entités peuvent y être décrits.
\item Le conteneur de similarité contient l'ensemble des connaissances liées et nécessaires au calcul de la similarité entre deux cas : les fonctions de calcul de similarité et les paramètres de mesure de similarité $sim(p_1, p_2)$ entre les cas $p_1$ et $p_2$. 151 151 \item Le conteneur de similarité contient l'ensemble des connaissances liées et nécessaires au calcul de la similarité entre deux cas : les fonctions de calcul de similarité et les paramètres de mesure de similarité $sim(p_1, p_2)$ entre les cas $p_1$ et $p_2$.
\end{itemize} 152 152 \end{itemize}
153 153
La figure \figref{figCycleCBR} montre les flux d'informations entre les étapes du RàPC et les conteneurs. Les flèches continues de la figure \figref{figCycleCBR} décrivent l'ordre dans lequel les phases du cycle du RàPC sont exécutées. Les flèches avec des lignes discontinues matérialisent les flux d'information, c'est-à-dire les liens entre les étapes du cycle et les conteneurs de connaissance. 154 154 La figure \figref{figCycleCBR} montre les flux d'informations entre les étapes du RàPC et les conteneurs. Les flèches continues de la figure \figref{figCycleCBR} décrivent l'ordre dans lequel les phases du cycle du RàPC sont exécutées. Les flèches avec des lignes discontinues matérialisent les flux d'information, c'est-à-dire les liens entre les étapes du cycle et les conteneurs de connaissance.
155 155
\mfigure[!ht]{width=\textwidth}{./Figures/CycleCBR.png}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données}{figCycleCBR} 156 156 \mfigure[!ht]{width=\textwidth}{./Figures/CycleCBR.png}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données}{figCycleCBR}
157 157
%\begin{figure} 158 158 %\begin{figure}
%\centering 159 159 %\centering
%\includegraphics[scale=2.5]{./Figures/CycleCBR.png} 160 160 %\includegraphics[scale=2.5]{./Figures/CycleCBR.png}
%\caption{Cycle du RàPC, les étapes, les conteneurs et leurs liens} 161 161 %\caption{Cycle du RàPC, les étapes, les conteneurs et leurs liens}
%\label{figCycle} 162 162 %\label{figCycle}
%\end{figure} 163 163 %\end{figure}
164 164
\subsection{Les systèmes multi-agents} 165 165 \subsection{Les systèmes multi-agents}
166 166
Les systèmes multi-agents sont des systèmes conçus pour résoudre des problèmes en combinant l'intelligence artificielle et le calcul distribué. Ces systèmes sont composés de multiples entités autonomes appelées agents, qui ont la capacité de communiquer entre elles et également de coordonner leurs comportements \cite{hajduk2019cognitive}. 167 167 Les systèmes multi-agents sont des systèmes conçus pour résoudre des problèmes en combinant l'intelligence artificielle et le calcul distribué. Ces systèmes sont composés de multiples entités autonomes appelées agents, qui ont la capacité de communiquer entre elles et également de coordonner leurs comportements \cite{hajduk2019cognitive}.
168 168
Les agents ont les propriétés suivantes : 169 169 Les agents ont les propriétés suivantes :
\begin{itemize} 170 170 \begin{itemize}
\item Autonomie: les agents fonctionnent sans intervention externe des êtres humains ou d'autres entités, ils ont un mécanisme interne qui leur permet de contrôler leurs états. 171 171 \item Autonomie: les agents fonctionnent sans intervention externe des êtres humains ou d'autres entités, ils ont un mécanisme interne qui leur permet de contrôler leurs états.
\item Réactivité: les agents ont la capacité de percevoir l'environnement dans lequel ils sont et peuvent réagir aux changements qui se produisent. 172 172 \item Réactivité: les agents ont la capacité de percevoir l'environnement dans lequel ils sont et peuvent réagir aux changements qui se produisent.
\item Pro-activité: les agents peuvent effectuer des changements, réagir à différents stimuli provenant de leur environnement et s'engager dans un processus cognitif interne. 173 173 \item Pro-activité: les agents peuvent effectuer des changements, réagir à différents stimuli provenant de leur environnement et s'engager dans un processus cognitif interne.
\item Coopération : les agents peuvent communiquer les uns avec les autres, échanger des informations afin de se coordonner et résoudre un même problème. 174 174 \item Coopération : les agents peuvent communiquer les uns avec les autres, échanger des informations afin de se coordonner et résoudre un même problème.
\item Apprentissage: il est nécessaire qu'un agent soit capable de réagir dans un environnement dynamique et inconnu, il doit donc avoir la capacité d'apprendre de ses interactions et ainsi améliorer la qualité de ses réactions et comportements. 175 175 \item Apprentissage: il est nécessaire qu'un agent soit capable de réagir dans un environnement dynamique et inconnu, il doit donc avoir la capacité d'apprendre de ses interactions et ainsi améliorer la qualité de ses réactions et comportements.
\end{itemize} 176 176 \end{itemize}
177 177
Il existe quatre types d'agent en fonction des capacités et des approches: 178 178 Il existe quatre types d'agent en fonction des capacités et des approches:
\begin{itemize} 179 179 \begin{itemize}
\item Réactif: c'est l'agent qui perçoit constamment l'environnement et agit en fonction de ses objectifs. 180 180 \item Réactif: c'est l'agent qui perçoit constamment l'environnement et agit en fonction de ses objectifs.
\item Fondé sur les réflexes: c'est l'agent qui considère les options pour atteindre ses objectifs et développe un plan à suivre. 181 181 \item Fondé sur les réflexes: c'est l'agent qui considère les options pour atteindre ses objectifs et développe un plan à suivre.
\item Hybride : il combine les deux modèles antérieurs en utilisant chacun d'eux en fonction de la situation et de l'objectif. 182 182 \item Hybride : il combine les deux modèles antérieurs en utilisant chacun d'eux en fonction de la situation et de l'objectif.
\item Fondé sur le comportement: l'agent a à sa disposition un ensemble de modèles de comportement pour réaliser certaines tâches spécifiques. Chaque comportement se déclenche selon des règles prédéfinies ou des conditions d'activation. Le comportement de l'agent peut être modélisé avec différentes stratégies cognitives de pensée ou de raisonnement. 183 183 \item Fondé sur le comportement: l'agent a à sa disposition un ensemble de modèles de comportement pour réaliser certaines tâches spécifiques. Chaque comportement se déclenche selon des règles prédéfinies ou des conditions d'activation. Le comportement de l'agent peut être modélisé avec différentes stratégies cognitives de pensée ou de raisonnement.
\end{itemize} 184 184 \end{itemize}
185 185
\subsection{Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées} 186 186 \subsection{Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}
187 187
\subsubsection{Pensée Bayesienne} 188 188 \subsubsection{Pensée Bayesienne}
189 189
D'après les travaux de certains mathématiciens et neuroscientifiques, toute forme de cognition peut être modélisée dans le cadre de la formule de Bayes (équation \ref{eqBayes}), car elle permet de tester différentes hypothèses et donner plus de crédibilité à celle qui est confirmée par les observations. Étant donné que ce type de modèle cognitif permet l'apprentissage optimal, la prédiction sur les événements passés, l'échantillonnage représentatif et l'inférence d'information manquante; il est appliqué dans quelques algorithmes de machine learning et d'intelligence artificielle \cite{Hoang}. 190 190 D'après les travaux de certains mathématiciens et neuroscientifiques, toute forme de cognition peut être modélisée dans le cadre de la formule de Bayes (équation \ref{eqBayes}), car elle permet de tester différentes hypothèses et donner plus de crédibilité à celle qui est confirmée par les observations. Étant donné que ce type de modèle cognitif permet l'apprentissage optimal, la prédiction sur les événements passés, l'échantillonnage représentatif et l'inférence d'information manquante; il est appliqué dans quelques algorithmes d'apprentissage machine (\textit{machine learning}) et d'intelligence artificielle \cite{Hoang}.
191 191
\begin{equation} 192 192 \begin{equation}
P(A|B)=\frac{P(B|A)P(A)}{P(B)} 193 193 P(A|B)=\frac{P(B|A)P(A)}{P(B)}
\label{eqBayes} 194 194 \label{eqBayes}
\end{equation} 195 195 \end{equation}
196 196
La formule de Bayes calcule la probabilité a posteriori $P(A|B)$ de la plausibilité de la théorie $A$ compte tenu des données $B$, et requiert trois termes: (1) une probabilité a priori $P(A)$ de la plausibilité de l'hypothèse $A$, (2) le terme $P(B|A)$ qui mesure la capacité de l'hypothèse $A$ à expliquer les données observées $B$ et (3) la fonction de partition $P(B)$ qui met en compétition toutes les hypothèses qui ont pu générer les données observées $B$. À chaque nouvelle évaluation de la formule, la valeur du terme a priori $P(A)$ est actualisée par la valeur du terme a posteriori $P(A|B)$. Ainsi, à chaque évaluation, le degré de plausibilité de chaque hypothèse est ajusté \cite{Hoang}. 197 197 La formule de Bayes calcule la probabilité a posteriori $P(A|B)$ de la plausibilité de la théorie $A$ compte tenu des données $B$, et requiert trois termes: (1) une probabilité a priori $P(A)$ de la plausibilité de l'hypothèse $A$, (2) le terme $P(B|A)$ qui mesure la capacité de l'hypothèse $A$ à expliquer les données observées $B$ et (3) la fonction de partition $P(B)$ qui met en compétition toutes les hypothèses qui ont pu générer les données observées $B$. À chaque nouvelle évaluation de la formule, la valeur du terme a priori $P(A)$ est actualisée par la valeur du terme a posteriori $P(A|B)$. Ainsi, à chaque évaluation, le degré de plausibilité de chaque hypothèse est ajusté \cite{Hoang}.
198 198
Par la suite, nous explicitons quelques algorithmes, intégrés généralement dans l'étape "Rechercher" du RàPC, pour la recherche des cas les plus proches d'un nouveau cas. 199 199 Par la suite, nous explicitons quelques algorithmes, intégrés généralement dans l'étape "Rechercher" du RàPC, pour la recherche des cas les plus proches d'un nouveau cas.
200 200
\subsubsection{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)} 201 201 \subsubsection{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}
202 202
Comme est défini dans \cite{10.1145/3459665}, la méthode des 'k' plus proches voisins est une méthode pour classifier des données dans des classes spécifiques. Pour faire cela, il est nécessaire de disposer d'une base de données avec des exemples déjà identifiés. Pour classer de nouveaux exemples, la méthode attribue la même classe que celle de leurs voisins les plus proches. Généralement, l'algorithme compare les caractéristiques d'une entité avec plusieurs possibles voisins pour essayer d'obtenir des résultats plus précis. 'k' représente le nombre de voisins, sachant que l'algorithme peut être exécuté à chaque fois avec un nombre différent de voisins. 203 203 Comme est défini dans \cite{10.1145/3459665}, la méthode des 'k' plus proches voisins est une méthode pour classifier des données. Pour faire cela, il est nécessaire de disposer d'une base de données avec des exemples déjà identifiés. Pour classer de nouveaux exemples, la méthode attribue la même classe que celle de leurs voisins les plus proches. Généralement, l'algorithme compare les caractéristiques d'une entité avec plusieurs possibles voisins pour essayer d'obtenir des résultats plus précis. 'k' représente le nombre de voisins, sachant que l'algorithme peut être exécuté à chaque fois avec un nombre différent de voisins.
204 204
Étant donné un jeu de données $D$ constitué de $(x_i)_{i \in [1,n]}$ données (où $n = |D|$). Chacune des données est décrite par $F$ caractéristiques qui sont des valeurs numériques normalisées $[0,1]$, et par une classe de labellisation $y_j \in Y$. Le but est de classifier une donnée inconnue $q$. Pour chaque $x_i \in D$, il est possible de calculer la distance entre $q$ et $x_i$ selon l'équation \ref{eqDist}. 205 205 Étant donné un jeu de données $D$ constitué de $(x_i)_{i \in [1,n]}$ données (où $n = |D|$). Chacune des données est décrite par $F$ caractéristiques qui sont des valeurs numériques normalisées $[0,1]$, et par une classe de labellisation $y_j \in Y$. Le but est de classifier une donnée inconnue $q$. Pour chaque $x_i \in D$, il est possible de calculer la distance entre $q$ et $x_i$ selon l'équation \ref{eqDist}.
206 206
\begin{equation} 207 207 \begin{equation}
d(q,x_i)=\sum_{f \in F} w_f \delta(q_f, x_{if}) 208 208 d(q,x_i)=\sum_{f \in F} w_f \delta(q_f, x_{if})
\label{eqDist} 209 209 \label{eqDist}
\end{equation} 210 210 \end{equation}
211 211
La distance entre $q$ et $x_i$ est la somme pondérée de toutes les distances élémentaires $delta$ calculées pour chaque caractéristique. La fonction de distance $\delta$ peut être une métrique générique. Pour des valeurs numériques discrètes il est possible d'utiliser la définition \ref{eqMet1}, 212 212 La distance entre $q$ et $x_i$ est la somme pondérée de toutes les distances élémentaires $delta$ calculées pour chaque caractéristique. La fonction de distance $\delta$ peut être une métrique générique. Pour des valeurs numériques discrètes il est possible d'utiliser la définition \ref{eqMet1},
213 213
\begin{equation} 214 214 \begin{equation}
\delta(q_f, x_{if})= 215 215 \delta(q_f, x_{if})=
\begin{cases} 216 216 \begin{cases}
0&q_f=x_{if}\\ 217 217 0&q_f=x_{if}\\
1&q_f \neq x_{if} 218 218 1&q_f \neq x_{if}
\end{cases} 219 219 \end{cases}
\label{eqMet1} 220 220 \label{eqMet1}
\end{equation} 221 221 \end{equation}
222 222
et si les valeurs sont continues l'équation \ref{eqMet2}. 223 223 et si les valeurs sont continues l'équation \ref{eqMet2}.
224 224
\begin{equation} 225 225 \begin{equation}
\delta(q_f, x_{if})= \lvert q_f-x_{if} \rvert 226 226 \delta(q_f, x_{if})= \lvert q_f-x_{if} \rvert
\label{eqMet2} 227 227 \label{eqMet2}
\end{equation} 228 228 \end{equation}
229 229
Un poids plus important est généralement attribué aux voisins les plus proches. Le vote pondéré en fonction de la distance est une technique couramment utilisée (équation \ref{eqV1}). 230 230 Un poids plus important est généralement attribué aux voisins les plus proches. Le vote pondéré en fonction de la distance est une technique couramment utilisée (équation \ref{eqV1}).
231 231
\begin{equation} 232 232 \begin{equation}
N(a,b)= \begin{cases} 1 & a=b \\ 0 & a \neq b \end{cases} 233 233 N(a,b)= \begin{cases} 1 & a=b \\ 0 & a \neq b \end{cases}
\label{eqV1} 234 234 \label{eqV1}
\end{equation} 235 235 \end{equation}
236 236
Le vote est couramment calculé selon l'équation \ref{eqV2}. 237 237 Le vote est couramment calculé selon l'équation \ref{eqV2}.
238 238
\begin{equation} 239 239 \begin{equation}
vote(y_i)=\sum_{c=1}^{k} \frac{1}{d(q, x_c)^p}N(y_j, y_c) 240 240 vote(y_i)=\sum_{c=1}^{k} \frac{1}{d(q, x_c)^p}N(y_j, y_c)
\label{eqV2} 241 241 \label{eqV2}
\end{equation} 242 242 \end{equation}
243 243
Une autre alternative est fondée sur le travail de Shepard, équation \ref{eqV3}. 244 244 Une autre alternative est fondée sur le travail de Shepard, équation \ref{eqV3}.
245 245
\begin{equation} 246 246 \begin{equation}
vote(y_i)=\sum_{c=1}^{k} e^{d(q, x_c)}N(y_j, y_c) 247 247 vote(y_i)=\sum_{c=1}^{k} e^{d(q, x_c)}N(y_j, y_c)
\label{eqV3} 248 248 \label{eqV3}
\end{equation} 249 249 \end{equation}
250 250
La fonction de distance peut être n'importe quelle mesure d'affinité entre deux objets, mais cette fonction doit répondre à quatre critères (équations \ref{eqCond}). 251 251 La fonction de distance peut être n'importe quelle mesure d'affinité entre deux objets, mais cette fonction doit répondre à quatre critères (équations \ref{eqCond}).
252 252
\begin{equation} 253 253 \begin{equation}
\begin{array}{l} 254 254 \begin{array}{l}
d(x,y) \ge 0\\ 255 255 d(x,y) \ge 0\\
d(x,y) = 0, \; seulement \; si \; x=y\\ 256 256 d(x,y) = 0, \; seulement \; si \; x=y\\
d(x,y)=d(y,x)\\ 257 257 d(x,y)=d(y,x)\\
d(x,z) \ge d(x,y) + d(y,z)\\ 258 258 d(x,z) \ge d(x,y) + d(y,z)\\
\end{array} 259 259 \end{array}
\label{eqCond} 260 260 \label{eqCond}
\end{equation} 261 261 \end{equation}
262 262
\subsubsection{K-Moyennes} 263 263 \subsubsection{K-Moyennes}
264 264
Selon \cite{9072123}, K-Moyennes est un algorithme d'apprentissage utilisé pour partitionner et grouper des données. Considérons $X = \{x_1, . . . , x_n\}$ un ensemble de vecteurs dans un espace Euclidien $\mathbb{R}^d$, et $A = \{a_1, . . . , a_c\}$ où $c$ est le nombre de groupes. Considérons également $z = [z_{ik} ]_{n \times c}$, où $z_{ik}$ est une variable binaire (i.e. $z_{ik} \in \{0, 1\}$) qui indique si une donnée $x_i$ appartient au k-ème groupe, $k = 1, · · · , c$. La fonction bijective k-moyenne est définie selon l'équation \ref{eqKM}. 265 265 Selon \cite{9072123}, K-Moyennes est un algorithme d'apprentissage utilisé pour partitionner et grouper des données. Considérons $X = \{x_1, . . . , x_n\}$ un ensemble de vecteurs dans un espace Euclidien $\mathbb{R}^d$, et $A = \{a_1, . . . , a_c\}$ où $c$ est le nombre de groupes. Considérons également $z = [z_{ik} ]_{n \times c}$, où $z_{ik}$ est une variable binaire (i.e. $z_{ik} \in \{0, 1\}$) qui indique si une donnée $x_i$ appartient au k-ème groupe, $k = 1, · · · , c$. La fonction bijective k-moyenne est définie selon l'équation \ref{eqKM}.
266 266
\begin{equation} 267 267 \begin{equation}
J (z, A) = \sum_{i=1}^n \sum_{k=1}^c z_{ik} \parallel x_i - a_k \parallel ^2 268 268 J (z, A) = \sum_{i=1}^n \sum_{k=1}^c z_{ik} \parallel x_i - a_k \parallel ^2
\label{eqKM} 269 269 \label{eqKM}
This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 18 JUL 2025 21:59 1 1 This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 21 JUL 2025 16:18
entering extended mode 2 2 entering extended mode
restricted \write18 enabled. 3 3 restricted \write18 enabled.
%&-line parsing enabled. 4 4 %&-line parsing enabled.
**main.tex 5 5 **main.tex
(./main.tex 6 6 (./main.tex
LaTeX2e <2022-11-01> patch level 1 7 7 LaTeX2e <2022-11-01> patch level 1
L3 programming layer <2023-05-22> (./spimufcphdthesis.cls 8 8 L3 programming layer <2023-05-22> (./spimufcphdthesis.cls
Document Class: spimufcphdthesis 2022/02/10 9 9 Document Class: spimufcphdthesis 2022/02/10
10 10
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum 11 11 (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum
ent.cls 12 12 ent.cls
Document Class: upmethodology-document 2022/10/04 13 13 Document Class: upmethodology-document 2022/10/04
(./upmethodology-p-common.sty 14 14 (./upmethodology-p-common.sty
Package: upmethodology-p-common 2015/04/24 15 15 Package: upmethodology-p-common 2015/04/24
16 16
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty 17 17 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty
Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC) 18 18 Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC)
) 19 19 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty 20 20 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty
Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH) 21 21 Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH)
) 22 22 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty 23 23 (/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty
Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK) 24 24 Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK)
25 25
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg 26 26 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg
File: color.cfg 2016/01/02 v1.6 sample color configuration 27 27 File: color.cfg 2016/01/02 v1.6 sample color configuration
) 28 28 )
Package xcolor Info: Driver file: pdftex.def on input line 227. 29 29 Package xcolor Info: Driver file: pdftex.def on input line 227.
30 30
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def 31 31 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def
File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex 32 32 File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex
) 33 33 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx) 34 34 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx)
Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353. 35 35 Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353.
Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357. 36 36 Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357.
Package xcolor Info: Model `RGB' extended on input line 1369. 37 37 Package xcolor Info: Model `RGB' extended on input line 1369.
Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371. 38 38 Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371.
Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372. 39 39 Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372.
Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373. 40 40 Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373.
Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374. 41 41 Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374.
Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375. 42 42 Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375.
Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376. 43 43 Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376.
) 44 44 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty 45 45 (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty
Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead. 46 46 Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead.
47 47
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty 48 48 (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty
Package: iftex 2022/02/03 v1.0f TeX engine tests 49 49 Package: iftex 2022/02/03 v1.0f TeX engine tests
)) 50 50 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def)) 51 51 (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def))
*********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER) 52 52 *********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER)
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls 53 53 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls
Document Class: book 2022/07/02 v1.4n Standard LaTeX document class 54 54 Document Class: book 2022/07/02 v1.4n Standard LaTeX document class
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo 55 55 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo
File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option) 56 56 File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option)
) 57 57 )
\c@part=\count185 58 58 \c@part=\count185
\c@chapter=\count186 59 59 \c@chapter=\count186
\c@section=\count187 60 60 \c@section=\count187
\c@subsection=\count188 61 61 \c@subsection=\count188
\c@subsubsection=\count189 62 62 \c@subsubsection=\count189
\c@paragraph=\count190 63 63 \c@paragraph=\count190
\c@subparagraph=\count191 64 64 \c@subparagraph=\count191
\c@figure=\count192 65 65 \c@figure=\count192
\c@table=\count193 66 66 \c@table=\count193
\abovecaptionskip=\skip48 67 67 \abovecaptionskip=\skip48
\belowcaptionskip=\skip49 68 68 \belowcaptionskip=\skip49
\bibindent=\dimen140 69 69 \bibindent=\dimen140
) 70 70 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty 71 71 (/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty
Package: a4wide 1994/08/30 72 72 Package: a4wide 1994/08/30
73 73
(/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty 74 74 (/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty
Package: a4 2023/01/10 v1.2g A4 based page layout 75 75 Package: a4 2023/01/10 v1.2g A4 based page layout
)) 76 76 ))
(./upmethodology-document.sty 77 77 (./upmethodology-document.sty
Package: upmethodology-document 2015/04/24 78 78 Package: upmethodology-document 2015/04/24
79 79
**** upmethodology-document is using French language **** 80 80 **** upmethodology-document is using French language ****
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty 81 81 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty
Package: babel 2023/05/11 v3.89 The Babel package 82 82 Package: babel 2023/05/11 v3.89 The Babel package
\babel@savecnt=\count194 83 83 \babel@savecnt=\count194
\U@D=\dimen141 84 84 \U@D=\dimen141
\l@unhyphenated=\language87 85 85 \l@unhyphenated=\language87
86 86
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def) 87 87 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def)
\bbl@readstream=\read2 88 88 \bbl@readstream=\read2
\bbl@dirlevel=\count195 89 89 \bbl@dirlevel=\count195
90 90
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf 91 91 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf
Language: french 2023/03/08 v3.5q French support from the babel system 92 92 Language: french 2023/03/08 v3.5q French support from the babel system
Package babel Info: Hyphen rules for 'acadian' set to \l@french 93 93 Package babel Info: Hyphen rules for 'acadian' set to \l@french
(babel) (\language29). Reported on input line 91. 94 94 (babel) (\language29). Reported on input line 91.
Package babel Info: Hyphen rules for 'canadien' set to \l@french 95 95 Package babel Info: Hyphen rules for 'canadien' set to \l@french
(babel) (\language29). Reported on input line 92. 96 96 (babel) (\language29). Reported on input line 92.
\FB@nonchar=\count196 97 97 \FB@nonchar=\count196
Package babel Info: Making : an active character on input line 395. 98 98 Package babel Info: Making : an active character on input line 395.
Package babel Info: Making ; an active character on input line 396. 99 99 Package babel Info: Making ; an active character on input line 396.
Package babel Info: Making ! an active character on input line 397. 100 100 Package babel Info: Making ! an active character on input line 397.
Package babel Info: Making ? an active character on input line 398. 101 101 Package babel Info: Making ? an active character on input line 398.
\FBguill@level=\count197 102 102 \FBguill@level=\count197
\FBold@everypar=\toks16 103 103 \FBold@everypar=\toks16
\FB@Mht=\dimen142 104 104 \FB@Mht=\dimen142
\mc@charclass=\count198 105 105 \mc@charclass=\count198
\mc@charfam=\count199 106 106 \mc@charfam=\count199
\mc@charslot=\count266 107 107 \mc@charslot=\count266
\std@mcc=\count267 108 108 \std@mcc=\count267
\dec@mcc=\count268 109 109 \dec@mcc=\count268
\FB@parskip=\dimen143 110 110 \FB@parskip=\dimen143
\listindentFB=\dimen144 111 111 \listindentFB=\dimen144
\descindentFB=\dimen145 112 112 \descindentFB=\dimen145
\labelindentFB=\dimen146 113 113 \labelindentFB=\dimen146
\labelwidthFB=\dimen147 114 114 \labelwidthFB=\dimen147
\leftmarginFB=\dimen148 115 115 \leftmarginFB=\dimen148
\parindentFFN=\dimen149 116 116 \parindentFFN=\dimen149
\FBfnindent=\dimen150 117 117 \FBfnindent=\dimen150
) 118 118 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf 119 119 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf
Language: frenchb 2023/03/08 v3.5q French support from the babel system 120 120 Language: frenchb 2023/03/08 v3.5q French support from the babel system
121 121
122 122
Package babel-french Warning: Option `frenchb' for Babel is *deprecated*, 123 123 Package babel-french Warning: Option `frenchb' for Babel is *deprecated*,
(babel-french) it might be removed sooner or later. Please 124 124 (babel-french) it might be removed sooner or later. Please
(babel-french) use `french' instead; reported on input line 35. 125 125 (babel-french) use `french' instead; reported on input line 35.
126 126
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf 127 127 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf
Language: french 2023/03/08 v3.5q French support from the babel system 128 128 Language: french 2023/03/08 v3.5q French support from the babel system
))) 129 129 )))
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te 130 130 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te
x 131 131 x
Package babel Info: Importing font and identification data for french 132 132 Package babel Info: Importing font and identification data for french
(babel) from babel-fr.ini. Reported on input line 11. 133 133 (babel) from babel-fr.ini. Reported on input line 11.
) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty) 134 134 ) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty)
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty 135 135 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty
Package: keyval 2022/05/29 v1.15 key=value parser (DPC) 136 136 Package: keyval 2022/05/29 v1.15 key=value parser (DPC)
\KV@toks@=\toks17 137 137 \KV@toks@=\toks17
) 138 138 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty 139 139 (/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty
Package: vmargin 2004/07/15 V2.5 set document margins (VK) 140 140 Package: vmargin 2004/07/15 V2.5 set document margins (VK)
141 141
Package: vmargin 2004/07/15 V2.5 set document margins (VK) 142 142 Package: vmargin 2004/07/15 V2.5 set document margins (VK)
\PaperWidth=\dimen151 143 143 \PaperWidth=\dimen151
\PaperHeight=\dimen152 144 144 \PaperHeight=\dimen152
) (./upmethodology-extension.sty 145 145 ) (./upmethodology-extension.sty
Package: upmethodology-extension 2012/09/21 146 146 Package: upmethodology-extension 2012/09/21
\upmext@tmp@putx=\skip50 147 147 \upmext@tmp@putx=\skip50
148 148
*** define extension value frontillustrationsize **** 149 149 *** define extension value frontillustrationsize ****
*** define extension value watermarksize **** 150 150 *** define extension value watermarksize ****
*** undefine extension value publisher **** 151 151 *** undefine extension value publisher ****
*** undefine extension value copyrighter **** 152 152 *** undefine extension value copyrighter ****
*** undefine extension value printedin ****) 153 153 *** undefine extension value printedin ****)
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s 154 154 (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s
ty 155 155 ty
Package: upmethodology-fmt 2022/10/04 156 156 Package: upmethodology-fmt 2022/10/04
**** upmethodology-fmt is using French language **** 157 157 **** upmethodology-fmt is using French language ****
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty 158 158 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty
Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR) 159 159 Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR)
160 160
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty 161 161 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty
Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR) 162 162 Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR)
163 163
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty 164 164 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty
Package: trig 2021/08/11 v1.11 sin cos tan (DPC) 165 165 Package: trig 2021/08/11 v1.11 sin cos tan (DPC)
) 166 166 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg 167 167 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg
File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration 168 168 File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration
) 169 169 )
Package graphics Info: Driver file: pdftex.def on input line 107. 170 170 Package graphics Info: Driver file: pdftex.def on input line 107.
) 171 171 )
\Gin@req@height=\dimen153 172 172 \Gin@req@height=\dimen153
\Gin@req@width=\dimen154 173 173 \Gin@req@width=\dimen154
) 174 174 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty 175 175 (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty
Package: subcaption 2023/02/19 v1.6 Sub-captions (AR) 176 176 Package: subcaption 2023/02/19 v1.6 Sub-captions (AR)
177 177
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty 178 178 (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty
Package: caption 2023/03/12 v3.6j Customizing captions (AR) 179 179 Package: caption 2023/03/12 v3.6j Customizing captions (AR)
180 180
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty 181 181 (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty
Package: caption3 2023/03/12 v2.4 caption3 kernel (AR) 182 182 Package: caption3 2023/03/12 v2.4 caption3 kernel (AR)
\caption@tempdima=\dimen155 183 183 \caption@tempdima=\dimen155
\captionmargin=\dimen156 184 184 \captionmargin=\dimen156
\caption@leftmargin=\dimen157 185 185 \caption@leftmargin=\dimen157
\caption@rightmargin=\dimen158 186 186 \caption@rightmargin=\dimen158
\caption@width=\dimen159 187 187 \caption@width=\dimen159
\caption@indent=\dimen160 188 188 \caption@indent=\dimen160
\caption@parindent=\dimen161 189 189 \caption@parindent=\dimen161
\caption@hangindent=\dimen162 190 190 \caption@hangindent=\dimen162
Package caption Info: Standard document class detected. 191 191 Package caption Info: Standard document class detected.
Package caption Info: french babel package is loaded. 192 192 Package caption Info: french babel package is loaded.
) 193 193 )
\c@caption@flags=\count269 194 194 \c@caption@flags=\count269
\c@continuedfloat=\count270 195 195 \c@continuedfloat=\count270
) 196 196 )
Package caption Info: New subtype `subfigure' on input line 239. 197 197 Package caption Info: New subtype `subfigure' on input line 239.
\c@subfigure=\count271 198 198 \c@subfigure=\count271
Package caption Info: New subtype `subtable' on input line 239. 199 199 Package caption Info: New subtype `subtable' on input line 239.
\c@subtable=\count272 200 200 \c@subtable=\count272
) 201 201 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty 202 202 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty
Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC) 203 203 Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC)
204 204
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty 205 205 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty
Package: array 2022/09/04 v2.5g Tabular extension package (FMi) 206 206 Package: array 2022/09/04 v2.5g Tabular extension package (FMi)
\col@sep=\dimen163 207 207 \col@sep=\dimen163
\ar@mcellbox=\box51 208 208 \ar@mcellbox=\box51
\extrarowheight=\dimen164 209 209 \extrarowheight=\dimen164
\NC@list=\toks18 210 210 \NC@list=\toks18
\extratabsurround=\skip51 211 211 \extratabsurround=\skip51
\backup@length=\skip52 212 212 \backup@length=\skip52
\ar@cellbox=\box52 213 213 \ar@cellbox=\box52
) 214 214 )
\TX@col@width=\dimen165 215 215 \TX@col@width=\dimen165
\TX@old@table=\dimen166 216 216 \TX@old@table=\dimen166
\TX@old@col=\dimen167 217 217 \TX@old@col=\dimen167
\TX@target=\dimen168 218 218 \TX@target=\dimen168
\TX@delta=\dimen169 219 219 \TX@delta=\dimen169
\TX@cols=\count273 220 220 \TX@cols=\count273
\TX@ftn=\toks19 221 221 \TX@ftn=\toks19
) 222 222 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty 223 223 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty
Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi) 224 224 Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi)
\c@tracingmulticols=\count274 225 225 \c@tracingmulticols=\count274
\mult@box=\box53 226 226 \mult@box=\box53
\multicol@leftmargin=\dimen170 227 227 \multicol@leftmargin=\dimen170
\c@unbalance=\count275 228 228 \c@unbalance=\count275
\c@collectmore=\count276 229 229 \c@collectmore=\count276
\doublecol@number=\count277 230 230 \doublecol@number=\count277
\multicoltolerance=\count278 231 231 \multicoltolerance=\count278
\multicolpretolerance=\count279 232 232 \multicolpretolerance=\count279
\full@width=\dimen171 233 233 \full@width=\dimen171
\page@free=\dimen172 234 234 \page@free=\dimen172
\premulticols=\dimen173 235 235 \premulticols=\dimen173
\postmulticols=\dimen174 236 236 \postmulticols=\dimen174
\multicolsep=\skip53 237 237 \multicolsep=\skip53
\multicolbaselineskip=\skip54 238 238 \multicolbaselineskip=\skip54
\partial@page=\box54 239 239 \partial@page=\box54
\last@line=\box55 240 240 \last@line=\box55
\maxbalancingoverflow=\dimen175 241 241 \maxbalancingoverflow=\dimen175
\mult@rightbox=\box56 242 242 \mult@rightbox=\box56
\mult@grightbox=\box57 243 243 \mult@grightbox=\box57
\mult@firstbox=\box58 244 244 \mult@firstbox=\box58
\mult@gfirstbox=\box59 245 245 \mult@gfirstbox=\box59
\@tempa=\box60 246 246 \@tempa=\box60
\@tempa=\box61 247 247 \@tempa=\box61
\@tempa=\box62 248 248 \@tempa=\box62
\@tempa=\box63 249 249 \@tempa=\box63
\@tempa=\box64 250 250 \@tempa=\box64
\@tempa=\box65 251 251 \@tempa=\box65
\@tempa=\box66 252 252 \@tempa=\box66
\@tempa=\box67 253 253 \@tempa=\box67
\@tempa=\box68 254 254 \@tempa=\box68
\@tempa=\box69 255 255 \@tempa=\box69
\@tempa=\box70 256 256 \@tempa=\box70
\@tempa=\box71 257 257 \@tempa=\box71
\@tempa=\box72 258 258 \@tempa=\box72
\@tempa=\box73 259 259 \@tempa=\box73
\@tempa=\box74 260 260 \@tempa=\box74
\@tempa=\box75 261 261 \@tempa=\box75
\@tempa=\box76 262 262 \@tempa=\box76
\@tempa=\box77 263 263 \@tempa=\box77
\@tempa=\box78 264 264 \@tempa=\box78
\@tempa=\box79 265 265 \@tempa=\box79
\@tempa=\box80 266 266 \@tempa=\box80
\@tempa=\box81 267 267 \@tempa=\box81
\@tempa=\box82 268 268 \@tempa=\box82
\@tempa=\box83 269 269 \@tempa=\box83
\@tempa=\box84 270 270 \@tempa=\box84
\@tempa=\box85 271 271 \@tempa=\box85
\@tempa=\box86 272 272 \@tempa=\box86
\@tempa=\box87 273 273 \@tempa=\box87
\@tempa=\box88 274 274 \@tempa=\box88
\@tempa=\box89 275 275 \@tempa=\box89
\@tempa=\box90 276 276 \@tempa=\box90
\@tempa=\box91 277 277 \@tempa=\box91
\@tempa=\box92 278 278 \@tempa=\box92
\@tempa=\box93 279 279 \@tempa=\box93
\@tempa=\box94 280 280 \@tempa=\box94
\@tempa=\box95 281 281 \@tempa=\box95
\c@minrows=\count280 282 282 \c@minrows=\count280
\c@columnbadness=\count281 283 283 \c@columnbadness=\count281
\c@finalcolumnbadness=\count282 284 284 \c@finalcolumnbadness=\count282
\last@try=\dimen176 285 285 \last@try=\dimen176
\multicolovershoot=\dimen177 286 286 \multicolovershoot=\dimen177
\multicolundershoot=\dimen178 287 287 \multicolundershoot=\dimen178
\mult@nat@firstbox=\box96 288 288 \mult@nat@firstbox=\box96
\colbreak@box=\box97 289 289 \colbreak@box=\box97
\mc@col@check@num=\count283 290 290 \mc@col@check@num=\count283
) 291 291 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty 292 292 (/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty
Package: colortbl 2022/06/20 v1.0f Color table columns (DPC) 293 293 Package: colortbl 2022/06/20 v1.0f Color table columns (DPC)
\everycr=\toks20 294 294 \everycr=\toks20
\minrowclearance=\skip55 295 295 \minrowclearance=\skip55
\rownum=\count284 296 296 \rownum=\count284
) 297 297 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty 298 298 (/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty
Pictures in Paragraphs. Version 1.3, November 22, 2022 299 299 Pictures in Paragraphs. Version 1.3, November 22, 2022
\br=\count285 300 300 \br=\count285
\bl=\count286 301 301 \bl=\count286
\na=\count287 302 302 \na=\count287
\nb=\count288 303 303 \nb=\count288
\tcdsav=\count289 304 304 \tcdsav=\count289
\tcl=\count290 305 305 \tcl=\count290
\tcd=\count291 306 306 \tcd=\count291
\tcn=\count292 307 307 \tcn=\count292
\cumtcl=\count293 308 308 \cumtcl=\count293
\cumpartcl=\count294 309 309 \cumpartcl=\count294
\lftside=\dimen179 310 310 \lftside=\dimen179
\rtside=\dimen180 311 311 \rtside=\dimen180
\hpic=\dimen181 312 312 \hpic=\dimen181
\vpic=\dimen182 313 313 \vpic=\dimen182
\strutilg=\dimen183 314 314 \strutilg=\dimen183
\picwd=\dimen184 315 315 \picwd=\dimen184
\topheight=\dimen185 316 316 \topheight=\dimen185
\ilg=\dimen186 317 317 \ilg=\dimen186
\lpic=\dimen187 318 318 \lpic=\dimen187
\lwindowsep=\dimen188 319 319 \lwindowsep=\dimen188
\rwindowsep=\dimen189 320 320 \rwindowsep=\dimen189
\cumpar=\dimen190 321 321 \cumpar=\dimen190
\twa=\toks21 322 322 \twa=\toks21
\la=\toks22 323 323 \la=\toks22
\ra=\toks23 324 324 \ra=\toks23
\ha=\toks24 325 325 \ha=\toks24
\pictoc=\toks25 326 326 \pictoc=\toks25
\rawtext=\box98 327 327 \rawtext=\box98
\holder=\box99 328 328 \holder=\box99
\windowbox=\box100 329 329 \windowbox=\box100
\wartext=\box101 330 330 \wartext=\box101
\finaltext=\box102 331 331 \finaltext=\box102
\aslice=\box103 332 332 \aslice=\box103
\bslice=\box104 333 333 \bslice=\box104
\wbox=\box105 334 334 \wbox=\box105
\wstrutbox=\box106 335 335 \wstrutbox=\box106
\picbox=\box107 336 336 \picbox=\box107
\waslice=\box108 337 337 \waslice=\box108
\wbslice=\box109 338 338 \wbslice=\box109
\fslice=\box110 339 339 \fslice=\box110
) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty 340 340 ) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty
Package: amsmath 2022/04/08 v2.17n AMS math features 341 341 Package: amsmath 2022/04/08 v2.17n AMS math features
\@mathmargin=\skip56 342 342 \@mathmargin=\skip56
343 343
For additional information on amsmath, use the `?' option. 344 344 For additional information on amsmath, use the `?' option.
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty 345 345 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty
Package: amstext 2021/08/26 v2.01 AMS text 346 346 Package: amstext 2021/08/26 v2.01 AMS text
347 347
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty 348 348 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty
File: amsgen.sty 1999/11/30 v2.0 generic functions 349 349 File: amsgen.sty 1999/11/30 v2.0 generic functions
\@emptytoks=\toks26 350 350 \@emptytoks=\toks26
\ex@=\dimen191 351 351 \ex@=\dimen191
)) 352 352 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty 353 353 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty
Package: amsbsy 1999/11/29 v1.2d Bold Symbols 354 354 Package: amsbsy 1999/11/29 v1.2d Bold Symbols
\pmbraise@=\dimen192 355 355 \pmbraise@=\dimen192
) 356 356 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty 357 357 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty
Package: amsopn 2022/04/08 v2.04 operator names 358 358 Package: amsopn 2022/04/08 v2.04 operator names
) 359 359 )
\inf@bad=\count295 360 360 \inf@bad=\count295
LaTeX Info: Redefining \frac on input line 234. 361 361 LaTeX Info: Redefining \frac on input line 234.
\uproot@=\count296 362 362 \uproot@=\count296
\leftroot@=\count297 363 363 \leftroot@=\count297
LaTeX Info: Redefining \overline on input line 399. 364 364 LaTeX Info: Redefining \overline on input line 399.
LaTeX Info: Redefining \colon on input line 410. 365 365 LaTeX Info: Redefining \colon on input line 410.
\classnum@=\count298 366 366 \classnum@=\count298
\DOTSCASE@=\count299 367 367 \DOTSCASE@=\count299
LaTeX Info: Redefining \ldots on input line 496. 368 368 LaTeX Info: Redefining \ldots on input line 496.
LaTeX Info: Redefining \dots on input line 499. 369 369 LaTeX Info: Redefining \dots on input line 499.
LaTeX Info: Redefining \cdots on input line 620. 370 370 LaTeX Info: Redefining \cdots on input line 620.
\Mathstrutbox@=\box111 371 371 \Mathstrutbox@=\box111
\strutbox@=\box112 372 372 \strutbox@=\box112
LaTeX Info: Redefining \big on input line 722. 373 373 LaTeX Info: Redefining \big on input line 722.
LaTeX Info: Redefining \Big on input line 723. 374 374 LaTeX Info: Redefining \Big on input line 723.
LaTeX Info: Redefining \bigg on input line 724. 375 375 LaTeX Info: Redefining \bigg on input line 724.
LaTeX Info: Redefining \Bigg on input line 725. 376 376 LaTeX Info: Redefining \Bigg on input line 725.
\big@size=\dimen193 377 377 \big@size=\dimen193
LaTeX Font Info: Redeclaring font encoding OML on input line 743. 378 378 LaTeX Font Info: Redeclaring font encoding OML on input line 743.
LaTeX Font Info: Redeclaring font encoding OMS on input line 744. 379 379 LaTeX Font Info: Redeclaring font encoding OMS on input line 744.
\macc@depth=\count300 380 380 \macc@depth=\count300
LaTeX Info: Redefining \bmod on input line 905. 381 381 LaTeX Info: Redefining \bmod on input line 905.
LaTeX Info: Redefining \pmod on input line 910. 382 382 LaTeX Info: Redefining \pmod on input line 910.
LaTeX Info: Redefining \smash on input line 940. 383 383 LaTeX Info: Redefining \smash on input line 940.
LaTeX Info: Redefining \relbar on input line 970. 384 384 LaTeX Info: Redefining \relbar on input line 970.
LaTeX Info: Redefining \Relbar on input line 971. 385 385 LaTeX Info: Redefining \Relbar on input line 971.
\c@MaxMatrixCols=\count301 386 386 \c@MaxMatrixCols=\count301
\dotsspace@=\muskip16 387 387 \dotsspace@=\muskip16
\c@parentequation=\count302 388 388 \c@parentequation=\count302
\dspbrk@lvl=\count303 389 389 \dspbrk@lvl=\count303
\tag@help=\toks27 390 390 \tag@help=\toks27
\row@=\count304 391 391 \row@=\count304
\column@=\count305 392 392 \column@=\count305
\maxfields@=\count306 393 393 \maxfields@=\count306
\andhelp@=\toks28 394 394 \andhelp@=\toks28
\eqnshift@=\dimen194 395 395 \eqnshift@=\dimen194
\alignsep@=\dimen195 396 396 \alignsep@=\dimen195
\tagshift@=\dimen196 397 397 \tagshift@=\dimen196
\tagwidth@=\dimen197 398 398 \tagwidth@=\dimen197
\totwidth@=\dimen198 399 399 \totwidth@=\dimen198
\lineht@=\dimen199 400 400 \lineht@=\dimen199
\@envbody=\toks29 401 401 \@envbody=\toks29
\multlinegap=\skip57 402 402 \multlinegap=\skip57
\multlinetaggap=\skip58 403 403 \multlinetaggap=\skip58
\mathdisplay@stack=\toks30 404 404 \mathdisplay@stack=\toks30
LaTeX Info: Redefining \[ on input line 2953. 405 405 LaTeX Info: Redefining \[ on input line 2953.
LaTeX Info: Redefining \] on input line 2954. 406 406 LaTeX Info: Redefining \] on input line 2954.
) 407 407 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty 408 408 (/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty
Package: amsthm 2020/05/29 v2.20.6 409 409 Package: amsthm 2020/05/29 v2.20.6
\thm@style=\toks31 410 410 \thm@style=\toks31
\thm@bodyfont=\toks32 411 411 \thm@bodyfont=\toks32
\thm@headfont=\toks33 412 412 \thm@headfont=\toks33
\thm@notefont=\toks34 413 413 \thm@notefont=\toks34
\thm@headpunct=\toks35 414 414 \thm@headpunct=\toks35
\thm@preskip=\skip59 415 415 \thm@preskip=\skip59
\thm@postskip=\skip60 416 416 \thm@postskip=\skip60
\thm@headsep=\skip61 417 417 \thm@headsep=\skip61
\dth@everypar=\toks36 418 418 \dth@everypar=\toks36
) 419 419 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty 420 420 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty
Package: thmtools 2023/05/04 v0.76 421 421 Package: thmtools 2023/05/04 v0.76
\thmt@toks=\toks37 422 422 \thmt@toks=\toks37
\c@thmt@dummyctr=\count307 423 423 \c@thmt@dummyctr=\count307
424 424
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty 425 425 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty
Package: thm-patch 2023/05/04 v0.76 426 426 Package: thm-patch 2023/05/04 v0.76
427 427
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty 428 428 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty
Package: parseargs 2023/05/04 v0.76 429 429 Package: parseargs 2023/05/04 v0.76
\@parsespec=\toks38 430 430 \@parsespec=\toks38
)) 431 431 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty 432 432 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty
Package: thm-kv 2023/05/04 v0.76 433 433 Package: thm-kv 2023/05/04 v0.76
Package thm-kv Info: Theorem names will be uppercased on input line 42. 434 434 Package thm-kv Info: Theorem names will be uppercased on input line 42.
435 435
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty 436 436 (/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty
Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO) 437 437 Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO)
) 438 438 )
Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158. 439 439 Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158.
) 440 440 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty 441 441 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty
Package: thm-autoref 2023/05/04 v0.76 442 442 Package: thm-autoref 2023/05/04 v0.76
443 443
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty 444 444 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty
Package: aliasctr 2023/05/04 v0.76 445 445 Package: aliasctr 2023/05/04 v0.76
)) 446 446 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty 447 447 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty
Package: thm-listof 2023/05/04 v0.76 448 448 Package: thm-listof 2023/05/04 v0.76
) 449 449 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty 450 450 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty
Package: thm-restate 2023/05/04 v0.76 451 451 Package: thm-restate 2023/05/04 v0.76
) 452 452 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty 453 453 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty
Package: thm-amsthm 2023/05/04 v0.76 454 454 Package: thm-amsthm 2023/05/04 v0.76
\thmt@style@headstyle=\toks39 455 455 \thmt@style@headstyle=\toks39
)) 456 456 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty 457 457 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty
Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR) 458 458 Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR)
LaTeX Font Info: Trying to load font information for U+pzd on input line 63. 459 459 LaTeX Font Info: Trying to load font information for U+pzd on input line 63.
460 460
461 461
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd 462 462 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd
File: upzd.fd 2001/06/04 font definitions for U/pzd. 463 463 File: upzd.fd 2001/06/04 font definitions for U/pzd.
) 464 464 )
LaTeX Font Info: Trying to load font information for U+psy on input line 64. 465 465 LaTeX Font Info: Trying to load font information for U+psy on input line 64.
466 466
467 467
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd 468 468 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd
File: upsy.fd 2001/06/04 font definitions for U/psy. 469 469 File: upsy.fd 2001/06/04 font definitions for U/psy.
)) 470 470 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty 471 471 (/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty
Package: setspace 2022/12/04 v6.7b set line spacing 472 472 Package: setspace 2022/12/04 v6.7b set line spacing
) 473 473 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty 474 474 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty
Package: varioref 2022/01/09 v1.6f package for extended references (FMi) 475 475 Package: varioref 2022/01/09 v1.6f package for extended references (FMi)
\c@vrcnt=\count308 476 476 \c@vrcnt=\count308
) 477 477 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty 478 478 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty
Package: txfonts 2008/01/22 v3.2.1 479 479 Package: txfonts 2008/01/22 v3.2.1
LaTeX Font Info: Redeclaring symbol font `operators' on input line 21. 480 480 LaTeX Font Info: Redeclaring symbol font `operators' on input line 21.
LaTeX Font Info: Overwriting symbol font `operators' in version `normal' 481 481 LaTeX Font Info: Overwriting symbol font `operators' in version `normal'
(Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21. 482 482 (Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21.
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' 483 483 LaTeX Font Info: Overwriting symbol font `operators' in version `bold'
(Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21. 484 484 (Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21.
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' 485 485 LaTeX Font Info: Overwriting symbol font `operators' in version `bold'
(Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22. 486 486 (Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22.
\symitalic=\mathgroup4 487 487 \symitalic=\mathgroup4
LaTeX Font Info: Overwriting symbol font `italic' in version `bold' 488 488 LaTeX Font Info: Overwriting symbol font `italic' in version `bold'
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26. 489 489 (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26.
LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29. 490 490 LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29.
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal' 491 491 LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal'
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. 492 492 (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29.
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold' 493 493 LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold'
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. 494 494 (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29.
LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30. 495 495 LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30.
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal' 496 496 LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal'
(Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30. 497 497 (Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30.
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' 498 498 LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold'
(Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30. 499 499 (Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30.
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' 500 500 LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold'
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31. 501 501 (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31.
LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40. 502 502 LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40.
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal' 503 503 LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal'
(Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40. 504 504 (Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40.
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' 505 505 LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold'
(Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40. 506 506 (Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40.
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' 507 507 LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold'
(Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41. 508 508 (Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41.
LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50. 509 509 LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50.
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal' 510 510 LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal'
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. 511 511 (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50.
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' 512 512 LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold'
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. 513 513 (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50.
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' 514 514 LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold'
(Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51. 515 515 (Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51.
LaTeX Font Info: Redeclaring symbol font `letters' on input line 58. 516 516 LaTeX Font Info: Redeclaring symbol font `letters' on input line 58.
LaTeX Font Info: Overwriting symbol font `letters' in version `normal' 517 517 LaTeX Font Info: Overwriting symbol font `letters' in version `normal'
(Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58. 518 518 (Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58.
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' 519 519 LaTeX Font Info: Overwriting symbol font `letters' in version `bold'
(Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58. 520 520 (Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58.
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' 521 521 LaTeX Font Info: Overwriting symbol font `letters' in version `bold'
(Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59. 522 522 (Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59.
\symlettersA=\mathgroup5 523 523 \symlettersA=\mathgroup5
LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold' 524 524 LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold'
(Font) U/txmia/m/it --> U/txmia/bx/it on input line 67. 525 525 (Font) U/txmia/m/it --> U/txmia/bx/it on input line 67.
LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77. 526 526 LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77.
LaTeX Font Info: Overwriting symbol font `symbols' in version `normal' 527 527 LaTeX Font Info: Overwriting symbol font `symbols' in version `normal'
(Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77. 528 528 (Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77.
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' 529 529 LaTeX Font Info: Overwriting symbol font `symbols' in version `bold'
(Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77. 530 530 (Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77.
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' 531 531 LaTeX Font Info: Overwriting symbol font `symbols' in version `bold'
(Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78. 532 532 (Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78.
\symAMSa=\mathgroup6 533 533 \symAMSa=\mathgroup6
LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold' 534 534 LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold'
(Font) U/txsya/m/n --> U/txsya/bx/n on input line 94. 535 535 (Font) U/txsya/m/n --> U/txsya/bx/n on input line 94.
\symAMSb=\mathgroup7 536 536 \symAMSb=\mathgroup7
LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold' 537 537 LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold'
(Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103. 538 538 (Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103.
\symsymbolsC=\mathgroup8 539 539 \symsymbolsC=\mathgroup8
LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold' 540 540 LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold'
(Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113. 541 541 (Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113.
LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120. 542 542 LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120.
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal' 543 543 LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal'
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. 544 544 (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120.
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' 545 545 LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold'
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. 546 546 (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120.
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' 547 547 LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold'
(Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121. 548 548 (Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121.
\symlargesymbolsA=\mathgroup9 549 549 \symlargesymbolsA=\mathgroup9
LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold' 550 550 LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold'
(Font) U/txexa/m/n --> U/txexa/bx/n on input line 129. 551 551 (Font) U/txexa/m/n --> U/txexa/bx/n on input line 129.
LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164. 552 552 LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164.
LaTeX Font Info: Redeclaring math symbol \hbar on input line 591. 553 553 LaTeX Font Info: Redeclaring math symbol \hbar on input line 591.
LaTeX Info: Redefining \not on input line 1043. 554 554 LaTeX Info: Redefining \not on input line 1043.
LaTeX Info: Redefining \textsquare on input line 1063. 555 555 LaTeX Info: Redefining \textsquare on input line 1063.
LaTeX Info: Redefining \openbox on input line 1064. 556 556 LaTeX Info: Redefining \openbox on input line 1064.
) 557 557 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty 558 558 (/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty
Package: relsize 2013/03/29 ver 4.1 559 559 Package: relsize 2013/03/29 ver 4.1
) 560 560 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty 561 561 (/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty
Package: xkeyval 2022/06/16 v2.9 package option processing (HA) 562 562 Package: xkeyval 2022/06/16 v2.9 package option processing (HA)
563 563
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex 564 564 (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex 565 565 (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex
\XKV@toks=\toks40 566 566 \XKV@toks=\toks40
\XKV@tempa@toks=\toks41 567 567 \XKV@tempa@toks=\toks41
) 568 568 )
\XKV@depth=\count309 569 569 \XKV@depth=\count309
File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA) 570 570 File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA)
)) 571 571 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty 572 572 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty
Package: hyphenat 2009/09/02 v2.3c hyphenation utilities 573 573 Package: hyphenat 2009/09/02 v2.3c hyphenation utilities
\langwohyphens=\language88 574 574 \langwohyphens=\language88
LaTeX Info: Redefining \_ on input line 43. 575 575 LaTeX Info: Redefining \_ on input line 43.
) 576 576 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty 577 577 (/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty
Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH 578 578 Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH
LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold' 579 579 LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold'
(Font) U/bbm/m/n --> U/bbm/bx/n on input line 33. 580 580 (Font) U/bbm/m/n --> U/bbm/bx/n on input line 33.
LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold' 581 581 LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold'
(Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35. 582 582 (Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35.
) 583 583 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty 584 584 (/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty
Package: environ 2014/05/04 v0.3 A new way to define environments 585 585 Package: environ 2014/05/04 v0.3 A new way to define environments
586 586
(/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty 587 587 (/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty
Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list 588 588 Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list
)) 589 589 ))
\c@upm@subfigure@count=\count310 590 590 \c@upm@subfigure@count=\count310
\c@upm@fmt@mtabular@columnnumber=\count311 591 591 \c@upm@fmt@mtabular@columnnumber=\count311
\c@upm@format@section@sectionlevel=\count312 592 592 \c@upm@format@section@sectionlevel=\count312
\c@upm@fmt@savedcounter=\count313 593 593 \c@upm@fmt@savedcounter=\count313
\c@@@upm@fmt@inlineenumeration=\count314 594 594 \c@@@upm@fmt@inlineenumeration=\count314
\c@@upm@fmt@enumdescription@cnt@=\count315 595 595 \c@@upm@fmt@enumdescription@cnt@=\count315
\upm@framed@minipage=\box113 596 596 \upm@framed@minipage=\box113
\upm@highlight@box@save=\box114 597 597 \upm@highlight@box@save=\box114
\c@upmdefinition=\count316 598 598 \c@upmdefinition=\count316
) 599 599 )
(./upmethodology-version.sty 600 600 (./upmethodology-version.sty
Package: upmethodology-version 2013/08/26 601 601 Package: upmethodology-version 2013/08/26
602 602
**** upmethodology-version is using French language **** 603 603 **** upmethodology-version is using French language ****
\upm@tmp@a=\count317 604 604 \upm@tmp@a=\count317
) 605 605 )
\listendskip=\skip62 606 606 \listendskip=\skip62
) 607 607 )
(./upmethodology-frontpage.sty 608 608 (./upmethodology-frontpage.sty
Package: upmethodology-frontpage 2015/06/26 609 609 Package: upmethodology-frontpage 2015/06/26
610 610
**** upmethodology-frontpage is using French language **** 611 611 **** upmethodology-frontpage is using French language ****
\upm@front@tmpa=\dimen256 612 612 \upm@front@tmpa=\dimen256
\upm@front@tmpb=\dimen257 613 613 \upm@front@tmpb=\dimen257
614 614
*** define extension value frontillustrationsize ****) 615 615 *** define extension value frontillustrationsize ****)
(./upmethodology-backpage.sty 616 616 (./upmethodology-backpage.sty
Package: upmethodology-backpage 2013/12/14 617 617 Package: upmethodology-backpage 2013/12/14
618 618
**** upmethodology-backpage is using French language ****) 619 619 **** upmethodology-backpage is using French language ****)
(/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty 620 620 (/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty
\Urlmuskip=\muskip17 621 621 \Urlmuskip=\muskip17
Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc. 622 622 Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc.
) 623 623 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty 624 624 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty
Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX 625 625 Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX
626 626
(/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty 627 627 (/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty
Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO) 628 628 Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO)
) 629 629 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty 630 630 (/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty
Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO 631 631 Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO
) 632 632 )
633 633
(/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty 634 634 (/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty
Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO) 635 635 Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO)
) 636 636 )
Package pdftexcmds Info: \pdf@primitive is available. 637 637 Package pdftexcmds Info: \pdf@primitive is available.
Package pdftexcmds Info: \pdf@ifprimitive is available. 638 638 Package pdftexcmds Info: \pdf@ifprimitive is available.
Package pdftexcmds Info: \pdfdraftmode found. 639 639 Package pdftexcmds Info: \pdfdraftmode found.
) 640 640 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty 641 641 (/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty
Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO) 642 642 Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO)
) 643 643 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty 644 644 (/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty
Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO) 645 645 Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO)
) 646 646 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty 647 647 (/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty
Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO) 648 648 Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO)
) 649 649 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty 650 650 (/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty
Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO) 651 651 Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO)
) 652 652 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty 653 653 (/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty
Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO) 654 654 Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO)
) 655 655 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty 656 656 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty
Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section 657 657 Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section
658 658
(/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty 659 659 (/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty
Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO) 660 660 Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO)
) 661 661 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s 662 662 (/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s
ty 663 663 ty
Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO) 664 664 Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO)
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty 665 665 (/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty
Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO) 666 666 Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO)
)) 667 667 ))
\c@section@level=\count318 668 668 \c@section@level=\count318
) 669 669 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty 670 670 (/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty
Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW) 671 671 Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW)
\etb@tempcnta=\count319 672 672 \etb@tempcnta=\count319
) 673 673 )
\@linkdim=\dimen258 674 674 \@linkdim=\dimen258
\Hy@linkcounter=\count320 675 675 \Hy@linkcounter=\count320
\Hy@pagecounter=\count321 676 676 \Hy@pagecounter=\count321
677 677
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def 678 678 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def
File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO) 679 679 File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO)
Now handling font encoding PD1 ... 680 680 Now handling font encoding PD1 ...
... no UTF-8 mapping file for font encoding PD1 681 681 ... no UTF-8 mapping file for font encoding PD1
) 682 682 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty 683 683 (/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty
Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO) 684 684 Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO)
) 685 685 )
\Hy@SavedSpaceFactor=\count322 686 686 \Hy@SavedSpaceFactor=\count322
687 687
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def 688 688 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def
File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO) 689 689 File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO)
Now handling font encoding PU ... 690 690 Now handling font encoding PU ...
... no UTF-8 mapping file for font encoding PU 691 691 ... no UTF-8 mapping file for font encoding PU
) 692 692 )
Package hyperref Info: Option `breaklinks' set `true' on input line 4050. 693 693 Package hyperref Info: Option `breaklinks' set `true' on input line 4050.
Package hyperref Info: Option `pageanchor' set `true' on input line 4050. 694 694 Package hyperref Info: Option `pageanchor' set `true' on input line 4050.
Package hyperref Info: Option `bookmarks' set `false' on input line 4050. 695 695 Package hyperref Info: Option `bookmarks' set `false' on input line 4050.
Package hyperref Info: Option `hyperfigures' set `true' on input line 4050. 696 696 Package hyperref Info: Option `hyperfigures' set `true' on input line 4050.
Package hyperref Info: Option `hyperindex' set `true' on input line 4050. 697 697 Package hyperref Info: Option `hyperindex' set `true' on input line 4050.
Package hyperref Info: Option `linktocpage' set `true' on input line 4050. 698 698 Package hyperref Info: Option `linktocpage' set `true' on input line 4050.
Package hyperref Info: Option `bookmarks' set `true' on input line 4050. 699 699 Package hyperref Info: Option `bookmarks' set `true' on input line 4050.
Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050. 700 700 Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050.
Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050 701 701 Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050
. 702 702 .
Package hyperref Info: Option `colorlinks' set `false' on input line 4050. 703 703 Package hyperref Info: Option `colorlinks' set `false' on input line 4050.
Package hyperref Info: Hyper figures ON on input line 4165. 704 704 Package hyperref Info: Hyper figures ON on input line 4165.
Package hyperref Info: Link nesting OFF on input line 4172. 705 705 Package hyperref Info: Link nesting OFF on input line 4172.
Package hyperref Info: Hyper index ON on input line 4175. 706 706 Package hyperref Info: Hyper index ON on input line 4175.
Package hyperref Info: Plain pages OFF on input line 4182. 707 707 Package hyperref Info: Plain pages OFF on input line 4182.
Package hyperref Info: Backreferencing OFF on input line 4187. 708 708 Package hyperref Info: Backreferencing OFF on input line 4187.
Package hyperref Info: Implicit mode ON; LaTeX internals redefined. 709 709 Package hyperref Info: Implicit mode ON; LaTeX internals redefined.
Package hyperref Info: Bookmarks ON on input line 4434. 710 710 Package hyperref Info: Bookmarks ON on input line 4434.
LaTeX Info: Redefining \href on input line 4683. 711 711 LaTeX Info: Redefining \href on input line 4683.
\c@Hy@tempcnt=\count323 712 712 \c@Hy@tempcnt=\count323
LaTeX Info: Redefining \url on input line 4772. 713 713 LaTeX Info: Redefining \url on input line 4772.
\XeTeXLinkMargin=\dimen259 714 714 \XeTeXLinkMargin=\dimen259
715 715
(/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty 716 716 (/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty
Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO) 717 717 Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO)
718 718
(/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty 719 719 (/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty
Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO 720 720 Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO
) 721 721 )
)) 722 722 ))
\Fld@menulength=\count324 723 723 \Fld@menulength=\count324
\Field@Width=\dimen260 724 724 \Field@Width=\dimen260
\Fld@charsize=\dimen261 725 725 \Fld@charsize=\dimen261
Package hyperref Info: Hyper figures ON on input line 6049. 726 726 Package hyperref Info: Hyper figures ON on input line 6049.
Package hyperref Info: Link nesting OFF on input line 6056. 727 727 Package hyperref Info: Link nesting OFF on input line 6056.
Package hyperref Info: Hyper index ON on input line 6059. 728 728 Package hyperref Info: Hyper index ON on input line 6059.
Package hyperref Info: backreferencing OFF on input line 6066. 729 729 Package hyperref Info: backreferencing OFF on input line 6066.
Package hyperref Info: Link coloring OFF on input line 6071. 730 730 Package hyperref Info: Link coloring OFF on input line 6071.
Package hyperref Info: Link coloring with OCG OFF on input line 6076. 731 731 Package hyperref Info: Link coloring with OCG OFF on input line 6076.
Package hyperref Info: PDF/A mode OFF on input line 6081. 732 732 Package hyperref Info: PDF/A mode OFF on input line 6081.
733 733
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty 734 734 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty
Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi 735 735 Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi
package with kernel methods 736 736 package with kernel methods
) 737 737 )
\Hy@abspage=\count325 738 738 \Hy@abspage=\count325
\c@Item=\count326 739 739 \c@Item=\count326
\c@Hfootnote=\count327 740 740 \c@Hfootnote=\count327
) 741 741 )
Package hyperref Info: Driver: hpdftex. 742 742 Package hyperref Info: Driver: hpdftex.
743 743
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def 744 744 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def
File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX 745 745 File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX
746 746
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty 747 747 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty
Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac 748 748 Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac
kage 749 749 kage
with kernel methods 750 750 with kernel methods
) 751 751 )
\Fld@listcount=\count328 752 752 \Fld@listcount=\count328
\c@bookmark@seq@number=\count329 753 753 \c@bookmark@seq@number=\count329
754 754
(/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty 755 755 (/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty
Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO) 756 756 Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO)
757 757
(/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty 758 758 (/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty
Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO) 759 759 Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO)
) 760 760 )
Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2 761 761 Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2
85. 762 762 85.
) 763 763 )
\Hy@SectionHShift=\skip63 764 764 \Hy@SectionHShift=\skip63
) 765 765 )
\upm@smalllogo@height=\dimen262 766 766 \upm@smalllogo@height=\dimen262
) (./spimbasephdthesis.sty 767 767 ) (./spimbasephdthesis.sty
Package: spimbasephdthesis 2015/09/01 768 768 Package: spimbasephdthesis 2015/09/01
769 769
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty 770 770 (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty
File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo) 771 771 File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo)
772 772
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty 773 773 (/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty 774 774 (/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty
Package: expl3 2023-05-22 L3 programming layer (loader) 775 775 Package: expl3 2023-05-22 L3 programming layer (loader)
776 776
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def 777 777 (/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def
File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX) 778 778 File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX)
\l__color_backend_stack_int=\count330 779 779 \l__color_backend_stack_int=\count330
\l__pdf_internal_box=\box115 780 780 \l__pdf_internal_box=\box115
)) 781 781 ))
Package: xfp 2023-02-02 L3 Floating point unit 782 782 Package: xfp 2023-02-02 L3 Floating point unit
) 783 783 )
\c@DefaultLines=\count331 784 784 \c@DefaultLines=\count331
\c@DefaultDepth=\count332 785 785 \c@DefaultDepth=\count332
\DefaultFindent=\dimen263 786 786 \DefaultFindent=\dimen263
\DefaultNindent=\dimen264 787 787 \DefaultNindent=\dimen264
\DefaultSlope=\dimen265 788 788 \DefaultSlope=\dimen265
\DiscardVskip=\dimen266 789 789 \DiscardVskip=\dimen266
\L@lbox=\box116 790 790 \L@lbox=\box116
\L@tbox=\box117 791 791 \L@tbox=\box117
\c@L@lines=\count333 792 792 \c@L@lines=\count333
\c@L@depth=\count334 793 793 \c@L@depth=\count334
\L@Pindent=\dimen267 794 794 \L@Pindent=\dimen267
\L@Findent=\dimen268 795 795 \L@Findent=\dimen268
\L@Nindent=\dimen269 796 796 \L@Nindent=\dimen269
\L@lraise=\dimen270 797 797 \L@lraise=\dimen270
\L@first=\dimen271 798 798 \L@first=\dimen271
\L@next=\dimen272 799 799 \L@next=\dimen272
\L@slope=\dimen273 800 800 \L@slope=\dimen273
\L@height=\dimen274 801 801 \L@height=\dimen274
\L@novskip=\dimen275 802 802 \L@novskip=\dimen275
\L@target@ht=\dimen276 803 803 \L@target@ht=\dimen276
\L@target@dp=\dimen277 804 804 \L@target@dp=\dimen277
\L@target@tht=\dimen278 805 805 \L@target@tht=\dimen278
\LettrineWidth=\dimen279 806 806 \LettrineWidth=\dimen279
\LettrineHeight=\dimen280 807 807 \LettrineHeight=\dimen280
\LettrineDepth=\dimen281 808 808 \LettrineDepth=\dimen281
Loading lettrine.cfg 809 809 Loading lettrine.cfg
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg) 810 810 (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg)
\Llist@everypar=\toks42 811 811 \Llist@everypar=\toks42
) 812 812 )
*** define extension value backcovermessage ****) 813 813 *** define extension value backcovermessage ****)
**** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) *** 814 814 **** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) ***
* (./upmext-spimufcphdthesis.cfg *** define extension value copyright **** 815 815 * (./upmext-spimufcphdthesis.cfg *** define extension value copyright ****
*** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v 816 816 *** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v
oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch 817 817 oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch
ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect 818 818 ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect
\begingroup \def \MessageBreak { 819 819 \begingroup \def \MessageBreak {
(Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info: 820 820 (Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info:
on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent 821 821 on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent
19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. **** 822 822 19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. ****
*** define extension value trademarks **** 823 823 *** define extension value trademarks ****
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty 824 824 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty
Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS) 825 825 Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS)
) 826 826 )
*** define extension value frontillustration **** 827 827 *** define extension value frontillustration ****
*** define extension value p3illustration **** 828 828 *** define extension value p3illustration ****
*** define extension value backillustration **** 829 829 *** define extension value backillustration ****
*** define extension value watermarksize **** 830 830 *** define extension value watermarksize ****
*** define extension value universityname **** 831 831 *** define extension value universityname ****
*** define extension value speciality **** 832 832 *** define extension value speciality ****
*** define extension value defensedate **** 833 833 *** define extension value defensedate ****
*** define extension value jurytabwidth **** 834 834 *** define extension value jurytabwidth ****
*** define extension value jurystyle **** 835 835 *** define extension value jurystyle ****
*** define extension value defensemessage ****)) 836 836 *** define extension value defensemessage ****))
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty 837 837 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty
Package: inputenc 2021/02/14 v1.3d Input encoding file 838 838 Package: inputenc 2021/02/14 v1.3d Input encoding file
\inpenc@prehook=\toks43 839 839 \inpenc@prehook=\toks43
\inpenc@posthook=\toks44 840 840 \inpenc@posthook=\toks44
) 841 841 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty 842 842 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty
Package: fontenc 2021/04/29 v2.0v Standard LaTeX package 843 843 Package: fontenc 2021/04/29 v2.0v Standard LaTeX package
LaTeX Font Info: Trying to load font information for T1+phv on input line 11 844 844 LaTeX Font Info: Trying to load font information for T1+phv on input line 11
2. 845 845 2.
846 846
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd 847 847 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd
File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv. 848 848 File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv.
)) 849 849 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty 850 850 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty
Package: times 2020/03/25 PSNFSS-v9.3 (SPQR) 851 851 Package: times 2020/03/25 PSNFSS-v9.3 (SPQR)
) 852 852 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty 853 853 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty
Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...) 854 854 Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...)
855 855
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty 856 856 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty
Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back 857 857 Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back
-ends (calc, etex, pgfmath) 858 858 -ends (calc, etex, pgfmath)
) 859 859 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty 860 860 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty
Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material 861 861 Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material
862 862
(/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty 863 863 (/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty
Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes 864 864 Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes
\collectedbox=\box118 865 865 \collectedbox=\box118
) 866 866 )
\tc@llx=\dimen282 867 867 \tc@llx=\dimen282
\tc@lly=\dimen283 868 868 \tc@lly=\dimen283
\tc@urx=\dimen284 869 869 \tc@urx=\dimen284
\tc@ury=\dimen285 870 870 \tc@ury=\dimen285
Package trimclip Info: Using driver 'tc-pdftex.def'. 871 871 Package trimclip Info: Using driver 'tc-pdftex.def'.
872 872
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def 873 873 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def
File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex 874 874 File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex
)) 875 875 ))
\adjbox@Width=\dimen286 876 876 \adjbox@Width=\dimen286
\adjbox@Height=\dimen287 877 877 \adjbox@Height=\dimen287
\adjbox@Depth=\dimen288 878 878 \adjbox@Depth=\dimen288
\adjbox@Totalheight=\dimen289 879 879 \adjbox@Totalheight=\dimen289
\adjbox@pwidth=\dimen290 880 880 \adjbox@pwidth=\dimen290
\adjbox@pheight=\dimen291 881 881 \adjbox@pheight=\dimen291
\adjbox@pdepth=\dimen292 882 882 \adjbox@pdepth=\dimen292
\adjbox@ptotalheight=\dimen293 883 883 \adjbox@ptotalheight=\dimen293
884 884
(/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty 885 885 (/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty
Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection 886 886 Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection
\c@checkoddpage=\count335 887 887 \c@checkoddpage=\count335
) 888 888 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty 889 889 (/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty
Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages 890 890 Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages
\@vwid@box=\box119 891 891 \@vwid@box=\box119
\sift@deathcycles=\count336 892 892 \sift@deathcycles=\count336
\@vwid@loff=\dimen294 893 893 \@vwid@loff=\dimen294
\@vwid@roff=\dimen295 894 894 \@vwid@roff=\dimen295
)) 895 895 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty 896 896 (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty
Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro 897 897 Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro
nment 898 898 nment
899 899
(/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty 900 900 (/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty
Package: float 2001/11/08 v1.3d Float enhancements (AL) 901 901 Package: float 2001/11/08 v1.3d Float enhancements (AL)
\c@float@type=\count337 902 902 \c@float@type=\count337
\float@exts=\toks45 903 903 \float@exts=\toks45
\float@box=\box120 904 904 \float@box=\box120
\@float@everytoks=\toks46 905 905 \@float@everytoks=\toks46
\@floatcapt=\box121 906 906 \@floatcapt=\box121
) 907 907 )
\@float@every@algorithm=\toks47 908 908 \@float@every@algorithm=\toks47
\c@algorithm=\count338 909 909 \c@algorithm=\count338
) 910 910 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty 911 911 (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty
Package: algpseudocode 912 912 Package: algpseudocode
913 913
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty 914 914 (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty
Package: algorithmicx 2005/04/27 v1.2 Algorithmicx 915 915 Package: algorithmicx 2005/04/27 v1.2 Algorithmicx
916 916
Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style 917 917 Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style
\c@ALG@line=\count339 918 918 \c@ALG@line=\count339
\c@ALG@rem=\count340 919 919 \c@ALG@rem=\count340
\c@ALG@nested=\count341 920 920 \c@ALG@nested=\count341
\ALG@tlm=\skip64 921 921 \ALG@tlm=\skip64
\ALG@thistlm=\skip65 922 922 \ALG@thistlm=\skip65
\c@ALG@Lnr=\count342 923 923 \c@ALG@Lnr=\count342
\c@ALG@blocknr=\count343 924 924 \c@ALG@blocknr=\count343
\c@ALG@storecount=\count344 925 925 \c@ALG@storecount=\count344
\c@ALG@tmpcounter=\count345 926 926 \c@ALG@tmpcounter=\count345
\ALG@tmplength=\skip66 927 927 \ALG@tmplength=\skip66
) 928 928 )
Document Style - pseudocode environments for use with the `algorithmicx' style 929 929 Document Style - pseudocode environments for use with the `algorithmicx' style
) *** define extension value defensedate **** 930 930 ) *** define extension value defensedate ****
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty 931 931 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty
Package: layout 2021-03-10 v1.2e Show layout parameters 932 932 Package: layout 2021-03-10 v1.2e Show layout parameters
\oneinch=\count346 933 933 \oneinch=\count346
\cnt@paperwidth=\count347 934 934 \cnt@paperwidth=\count347
\cnt@paperheight=\count348 935 935 \cnt@paperheight=\count348
\cnt@hoffset=\count349 936 936 \cnt@hoffset=\count349
\cnt@voffset=\count350 937 937 \cnt@voffset=\count350
\cnt@textheight=\count351 938 938 \cnt@textheight=\count351
\cnt@textwidth=\count352 939 939 \cnt@textwidth=\count352
\cnt@topmargin=\count353 940 940 \cnt@topmargin=\count353
\cnt@oddsidemargin=\count354 941 941 \cnt@oddsidemargin=\count354
\cnt@evensidemargin=\count355 942 942 \cnt@evensidemargin=\count355
\cnt@headheight=\count356 943 943 \cnt@headheight=\count356
\cnt@headsep=\count357 944 944 \cnt@headsep=\count357
\cnt@marginparsep=\count358 945 945 \cnt@marginparsep=\count358
\cnt@marginparwidth=\count359 946 946 \cnt@marginparwidth=\count359
\cnt@marginparpush=\count360 947 947 \cnt@marginparpush=\count360
\cnt@footskip=\count361 948 948 \cnt@footskip=\count361
\fheight=\count362 949 949 \fheight=\count362
\ref@top=\count363 950 950 \ref@top=\count363
\ref@hoffset=\count364 951 951 \ref@hoffset=\count364
\ref@voffset=\count365 952 952 \ref@voffset=\count365
\ref@head=\count366 953 953 \ref@head=\count366
\ref@body=\count367 954 954 \ref@body=\count367
\ref@foot=\count368 955 955 \ref@foot=\count368
\ref@margin=\count369 956 956 \ref@margin=\count369
\ref@marginwidth=\count370 957 957 \ref@marginwidth=\count370
\ref@marginpar=\count371 958 958 \ref@marginpar=\count371
\Interval=\count372 959 959 \Interval=\count372
\ExtraYPos=\count373 960 960 \ExtraYPos=\count373
\PositionX=\count374 961 961 \PositionX=\count374
\PositionY=\count375 962 962 \PositionY=\count375
\ArrowLength=\count376 963 963 \ArrowLength=\count376
) 964 964 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty 965 965 (/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty
Package: geometry 2020/01/02 v5.9 Page Geometry 966 966 Package: geometry 2020/01/02 v5.9 Page Geometry
967 967
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty 968 968 (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty
Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead. 969 969 Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead.
) 970 970 )
\Gm@cnth=\count377 971 971 \Gm@cnth=\count377
\Gm@cntv=\count378 972 972 \Gm@cntv=\count378
\c@Gm@tempcnt=\count379 973 973 \c@Gm@tempcnt=\count379
\Gm@bindingoffset=\dimen296 974 974 \Gm@bindingoffset=\dimen296
\Gm@wd@mp=\dimen297 975 975 \Gm@wd@mp=\dimen297
\Gm@odd@mp=\dimen298 976 976 \Gm@odd@mp=\dimen298
\Gm@even@mp=\dimen299 977 977 \Gm@even@mp=\dimen299
\Gm@layoutwidth=\dimen300 978 978 \Gm@layoutwidth=\dimen300
\Gm@layoutheight=\dimen301 979 979 \Gm@layoutheight=\dimen301
\Gm@layouthoffset=\dimen302 980 980 \Gm@layouthoffset=\dimen302
\Gm@layoutvoffset=\dimen303 981 981 \Gm@layoutvoffset=\dimen303
\Gm@dimlist=\toks48 982 982 \Gm@dimlist=\toks48
) (./main.aux 983 983 ) (./main.aux
(./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux) 984 984 (./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux)
(./chapters/Architecture.aux) (./chapters/ESCBR.aux) (./chapters/TS.aux 985 985 (./chapters/Architecture.aux) (./chapters/ESCBR.aux) (./chapters/TS.aux
986 986
LaTeX Warning: Label `eqBeta' multiply defined. 987 987 LaTeX Warning: Label `eqBeta' multiply defined.
988 988
989
LaTeX Warning: Label `fig:Amodel' multiply defined. 990
991
992
LaTeX Warning: Label `fig:stabilityBP' multiply defined. 993
994
) (./chapters/Conclusions.aux) (./chapters/Publications.aux)) 995 989 ) (./chapters/Conclusions.aux) (./chapters/Publications.aux))
\openout1 = `main.aux'. 996 990 \openout1 = `main.aux'.
997 991
LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 231. 998 992 LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 231.
LaTeX Font Info: Trying to load font information for OML+txmi on input line 999 993 LaTeX Font Info: Trying to load font information for OML+txmi on input line
231. 1000 994 231.
1001 995
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd 1002 996 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd
File: omltxmi.fd 2000/12/15 v3.1 1003 997 File: omltxmi.fd 2000/12/15 v3.1
) 1004 998 )
LaTeX Font Info: ... okay on input line 231. 1005 999 LaTeX Font Info: ... okay on input line 231.
LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 231. 1006 1000 LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 231.
LaTeX Font Info: Trying to load font information for OMS+txsy on input line 1007 1001 LaTeX Font Info: Trying to load font information for OMS+txsy on input line
231. 1008 1002 231.
1009 1003
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd 1010 1004 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd
File: omstxsy.fd 2000/12/15 v3.1 1011 1005 File: omstxsy.fd 2000/12/15 v3.1
) 1012 1006 )
LaTeX Font Info: ... okay on input line 231. 1013 1007 LaTeX Font Info: ... okay on input line 231.
LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 231. 1014 1008 LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 231.
LaTeX Font Info: ... okay on input line 231. 1015 1009 LaTeX Font Info: ... okay on input line 231.
LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 231. 1016 1010 LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 231.
LaTeX Font Info: ... okay on input line 231. 1017 1011 LaTeX Font Info: ... okay on input line 231.
LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 231. 1018 1012 LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 231.
LaTeX Font Info: ... okay on input line 231. 1019 1013 LaTeX Font Info: ... okay on input line 231.
LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 231. 1020 1014 LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 231.
LaTeX Font Info: Trying to load font information for OMX+txex on input line 1021 1015 LaTeX Font Info: Trying to load font information for OMX+txex on input line
231. 1022 1016 231.
1023 1017
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd 1024 1018 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd
File: omxtxex.fd 2000/12/15 v3.1 1025 1019 File: omxtxex.fd 2000/12/15 v3.1
) 1026 1020 )
LaTeX Font Info: ... okay on input line 231. 1027 1021 LaTeX Font Info: ... okay on input line 231.
LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 231. 1028 1022 LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 231.
LaTeX Font Info: Trying to load font information for U+txexa on input line 2 1029 1023 LaTeX Font Info: Trying to load font information for U+txexa on input line 2
31. 1030 1024 31.
1031 1025
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd 1032 1026 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd
File: utxexa.fd 2000/12/15 v3.1 1033 1027 File: utxexa.fd 2000/12/15 v3.1
) 1034 1028 )
LaTeX Font Info: ... okay on input line 231. 1035 1029 LaTeX Font Info: ... okay on input line 231.
LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 231. 1036 1030 LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 231.
LaTeX Font Info: ... okay on input line 231. 1037 1031 LaTeX Font Info: ... okay on input line 231.
LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 231. 1038 1032 LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 231.
LaTeX Font Info: ... okay on input line 231. 1039 1033 LaTeX Font Info: ... okay on input line 231.
1040 1034
(/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii 1041 1035 (/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii
[Loading MPS to PDF converter (version 2006.09.02).] 1042 1036 [Loading MPS to PDF converter (version 2006.09.02).]
\scratchcounter=\count380 1043 1037 \scratchcounter=\count380
\scratchdimen=\dimen304 1044 1038 \scratchdimen=\dimen304
\scratchbox=\box122 1045 1039 \scratchbox=\box122
\nofMPsegments=\count381 1046 1040 \nofMPsegments=\count381
\nofMParguments=\count382 1047 1041 \nofMParguments=\count382
\everyMPshowfont=\toks49 1048 1042 \everyMPshowfont=\toks49
\MPscratchCnt=\count383 1049 1043 \MPscratchCnt=\count383
\MPscratchDim=\dimen305 1050 1044 \MPscratchDim=\dimen305
\MPnumerator=\count384 1051 1045 \MPnumerator=\count384
\makeMPintoPDFobject=\count385 1052 1046 \makeMPintoPDFobject=\count385
\everyMPtoPDFconversion=\toks50 1053 1047 \everyMPtoPDFconversion=\toks50
) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty 1054 1048 ) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty
Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf 1055 1049 Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf
Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4 1056 1050 Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4
85. 1057 1051 85.
1058 1052
(/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg 1059 1053 (/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg
File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv 1060 1054 File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv
e 1061 1055 e
)) 1062 1056 ))
LaTeX Info: Redefining \degres on input line 231. 1063 1057 LaTeX Info: Redefining \degres on input line 231.
LaTeX Info: Redefining \up on input line 231. 1064 1058 LaTeX Info: Redefining \up on input line 231.
Package caption Info: Begin \AtBeginDocument code. 1065 1059 Package caption Info: Begin \AtBeginDocument code.
Package caption Info: float package is loaded. 1066 1060 Package caption Info: float package is loaded.
Package caption Info: hyperref package is loaded. 1067 1061 Package caption Info: hyperref package is loaded.
Package caption Info: picinpar package is loaded. 1068 1062 Package caption Info: picinpar package is loaded.
Package caption Info: End \AtBeginDocument code. 1069 1063 Package caption Info: End \AtBeginDocument code.
1070 1064
*** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo 1071 1065 *** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo
iding this override. 1072 1066 iding this override.
*** Overriding the 'description' environment. Pass option 'standardlists' for a 1073 1067 *** Overriding the 'description' environment. Pass option 'standardlists' for a
voiding this override. ************ USE CUSTOM FRONT COVER 1074 1068 voiding this override. ************ USE CUSTOM FRONT COVER
Package hyperref Info: Link coloring OFF on input line 231. 1075 1069 Package hyperref Info: Link coloring OFF on input line 231.
(./main.out) 1076 1070 (./main.out)
(./main.out) 1077 1071 (./main.out)
\@outlinefile=\write3 1078 1072 \@outlinefile=\write3
\openout3 = `main.out'. 1079 1073 \openout3 = `main.out'.
1080 1074
1081 1075
*geometry* driver: auto-detecting 1082 1076 *geometry* driver: auto-detecting
*geometry* detected driver: pdftex 1083 1077 *geometry* detected driver: pdftex
*geometry* verbose mode - [ preamble ] result: 1084 1078 *geometry* verbose mode - [ preamble ] result:
* pass: disregarded the geometry package! 1085 1079 * pass: disregarded the geometry package!
* \paperwidth=598.14806pt 1086 1080 * \paperwidth=598.14806pt
* \paperheight=845.90042pt 1087 1081 * \paperheight=845.90042pt
* \textwidth=427.43153pt 1088 1082 * \textwidth=427.43153pt
* \textheight=671.71976pt 1089 1083 * \textheight=671.71976pt
* \oddsidemargin=99.58464pt 1090 1084 * \oddsidemargin=99.58464pt
* \evensidemargin=71.13188pt 1091 1085 * \evensidemargin=71.13188pt
* \topmargin=56.9055pt 1092 1086 * \topmargin=56.9055pt
* \headheight=12.0pt 1093 1087 * \headheight=12.0pt
* \headsep=31.29802pt 1094 1088 * \headsep=31.29802pt
* \topskip=11.0pt 1095 1089 * \topskip=11.0pt
* \footskip=31.29802pt 1096 1090 * \footskip=31.29802pt
* \marginparwidth=54.2025pt 1097 1091 * \marginparwidth=54.2025pt
* \marginparsep=7.0pt 1098 1092 * \marginparsep=7.0pt
* \columnsep=10.0pt 1099 1093 * \columnsep=10.0pt
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt 1100 1094 * \skip\footins=10.0pt plus 4.0pt minus 2.0pt
* \hoffset=-72.26999pt 1101 1095 * \hoffset=-72.26999pt
* \voffset=-72.26999pt 1102 1096 * \voffset=-72.26999pt
* \mag=1000 1103 1097 * \mag=1000
* \@twocolumnfalse 1104 1098 * \@twocolumnfalse
* \@twosidetrue 1105 1099 * \@twosidetrue
* \@mparswitchtrue 1106 1100 * \@mparswitchtrue
* \@reversemarginfalse 1107 1101 * \@reversemarginfalse
* (1in=72.27pt=25.4mm, 1cm=28.453pt) 1108 1102 * (1in=72.27pt=25.4mm, 1cm=28.453pt)
1109 1103
*geometry* verbose mode - [ newgeometry ] result: 1110 1104 *geometry* verbose mode - [ newgeometry ] result:
* driver: pdftex 1111 1105 * driver: pdftex
* paper: a4paper 1112 1106 * paper: a4paper
* layout: <same size as paper> 1113 1107 * layout: <same size as paper>
* layoutoffset:(h,v)=(0.0pt,0.0pt) 1114 1108 * layoutoffset:(h,v)=(0.0pt,0.0pt)
* modes: twoside 1115 1109 * modes: twoside
* h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt) 1116 1110 * h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt)
* v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt) 1117 1111 * v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt)
* \paperwidth=598.14806pt 1118 1112 * \paperwidth=598.14806pt
* \paperheight=845.90042pt 1119 1113 * \paperheight=845.90042pt
* \textwidth=355.65306pt 1120 1114 * \textwidth=355.65306pt
* \textheight=741.54591pt 1121 1115 * \textheight=741.54591pt
* \oddsidemargin=98.44653pt 1122 1116 * \oddsidemargin=98.44653pt
* \evensidemargin=-0.49152pt 1123 1117 * \evensidemargin=-0.49152pt
* \topmargin=-14.05894pt 1124 1118 * \topmargin=-14.05894pt
* \headheight=12.0pt 1125 1119 * \headheight=12.0pt
* \headsep=31.29802pt 1126 1120 * \headsep=31.29802pt
* \topskip=11.0pt 1127 1121 * \topskip=11.0pt
* \footskip=31.29802pt 1128 1122 * \footskip=31.29802pt
* \marginparwidth=54.2025pt 1129 1123 * \marginparwidth=54.2025pt
* \marginparsep=7.0pt 1130 1124 * \marginparsep=7.0pt
* \columnsep=10.0pt 1131 1125 * \columnsep=10.0pt
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt 1132 1126 * \skip\footins=10.0pt plus 4.0pt minus 2.0pt
* \hoffset=-72.26999pt 1133 1127 * \hoffset=-72.26999pt
* \voffset=-72.26999pt 1134 1128 * \voffset=-72.26999pt
* \mag=1000 1135 1129 * \mag=1000
* \@twocolumnfalse 1136 1130 * \@twocolumnfalse
* \@twosidetrue 1137 1131 * \@twosidetrue
* \@mparswitchtrue 1138 1132 * \@mparswitchtrue
* \@reversemarginfalse 1139 1133 * \@reversemarginfalse
* (1in=72.27pt=25.4mm, 1cm=28.453pt) 1140 1134 * (1in=72.27pt=25.4mm, 1cm=28.453pt)
1141 1135
<images_logos/image1_logoUBFC_grand.png, id=385, 610.4406pt x 217.0509pt> 1142 1136 <images_logos/image1_logoUBFC_grand.png, id=377, 610.4406pt x 217.0509pt>
File: images_logos/image1_logoUBFC_grand.png Graphic file (type png) 1143 1137 File: images_logos/image1_logoUBFC_grand.png Graphic file (type png)
<use images_logos/image1_logoUBFC_grand.png> 1144 1138 <use images_logos/image1_logoUBFC_grand.png>
Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input 1145 1139 Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input
line 237. 1146 1140 line 237.
(pdftex.def) Requested size: 142.25905pt x 50.57973pt. 1147 1141 (pdftex.def) Requested size: 142.25905pt x 50.57973pt.
<images_logos/logo_UFC_2018_transparence.png, id=387, 104.5506pt x 34.6896pt> 1148 1142 <images_logos/logo_UFC_2018_transparence.png, id=379, 104.5506pt x 34.6896pt>
File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png) 1149 1143 File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png)
<use images_logos/logo_UFC_2018_transparence.png> 1150 1144 <use images_logos/logo_UFC_2018_transparence.png>
Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i 1151 1145 Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i
nput line 237. 1152 1146 nput line 237.
(pdftex.def) Requested size: 142.25905pt x 47.20264pt. 1153 1147 (pdftex.def) Requested size: 142.25905pt x 47.20264pt.
LaTeX Font Info: Trying to load font information for OT1+txr on input line 2 1154 1148 LaTeX Font Info: Trying to load font information for OT1+txr on input line 2
48. 1155 1149 48.
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd 1156 1150 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd
File: ot1txr.fd 2000/12/15 v3.1 1157 1151 File: ot1txr.fd 2000/12/15 v3.1
) 1158 1152 )
LaTeX Font Info: Trying to load font information for U+txmia on input line 2 1159 1153 LaTeX Font Info: Trying to load font information for U+txmia on input line 2
48. 1160 1154 48.
1161 1155
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd 1162 1156 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd
File: utxmia.fd 2000/12/15 v3.1 1163 1157 File: utxmia.fd 2000/12/15 v3.1
) 1164 1158 )
LaTeX Font Info: Trying to load font information for U+txsya on input line 2 1165 1159 LaTeX Font Info: Trying to load font information for U+txsya on input line 2
48. 1166 1160 48.
1167 1161
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd 1168 1162 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd
File: utxsya.fd 2000/12/15 v3.1 1169 1163 File: utxsya.fd 2000/12/15 v3.1
) 1170 1164 )
LaTeX Font Info: Trying to load font information for U+txsyb on input line 2 1171 1165 LaTeX Font Info: Trying to load font information for U+txsyb on input line 2
48. 1172 1166 48.
1173 1167
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd 1174 1168 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd
File: utxsyb.fd 2000/12/15 v3.1 1175 1169 File: utxsyb.fd 2000/12/15 v3.1
) 1176 1170 )
LaTeX Font Info: Trying to load font information for U+txsyc on input line 2 1177 1171 LaTeX Font Info: Trying to load font information for U+txsyc on input line 2
48. 1178 1172 48.
1179 1173
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd 1180 1174 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd
File: utxsyc.fd 2000/12/15 v3.1 1181 1175 File: utxsyc.fd 2000/12/15 v3.1
) [1 1182 1176 ) [1
1183 1177
1184 1178
1185 1179
1186 1180
{/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc 1187 1181 {/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc
al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_ 1188 1182 al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_
logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2 1189 1183 logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2
1190 1184
1191 1185
] [3] [4] 1192 1186 ] [3] [4]
(./main.toc 1193 1187 (./main.toc
LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available 1194 1188 LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available
(Font) Font shape `T1/phv/m/sl' tried instead on input line 24. 1195 1189 (Font) Font shape `T1/phv/m/sl' tried instead on input line 24.
1196 1190
Underfull \vbox (badness 1043) has occurred while \output is active [] 1197 1191 Underfull \vbox (badness 1043) has occurred while \output is active []
1198 1192
[5 1199 1193 [5
1200 1194
] 1201 1195 ]
[6] [7] 1202 1196 [6] [7]
Overfull \hbox (1.29184pt too wide) detected at line 89 1203 1197 Overfull \hbox (1.29184pt too wide) detected at line 88
[][]\T1/phv/m/n/10.95 100[] 1204 1198 [][]\T1/phv/m/n/10.95 100[]
[] 1205 1199 []
1206 1200
1207 1201
Overfull \hbox (1.29184pt too wide) detected at line 90 1208 1202 Overfull \hbox (1.29184pt too wide) detected at line 90
[][]\T1/phv/m/n/10.95 100[] 1209
[] 1210
1211
1212
Overfull \hbox (1.29184pt too wide) detected at line 92 1213
[][]\T1/phv/m/n/10.95 103[] 1214 1203 [][]\T1/phv/m/n/10.95 103[]
[] 1215 1204 []
1216 1205
1217 1206
Overfull \hbox (1.29184pt too wide) detected at line 93 1218 1207 Overfull \hbox (1.29184pt too wide) detected at line 91
[][]\T1/phv/m/n/10.95 105[] 1219 1208 [][]\T1/phv/m/n/10.95 105[]
[] 1220 1209 []
1221 1210
1222 1211
Overfull \hbox (1.29184pt too wide) detected at line 95 1223 1212 Overfull \hbox (1.29184pt too wide) detected at line 93
[][]\T1/phv/m/n/10.95 107[] 1224 1213 [][]\T1/phv/m/n/10.95 107[]
[] 1225 1214 []
1226 1215
1227 1216
Overfull \hbox (1.29184pt too wide) detected at line 96 1228 1217 Overfull \hbox (1.29184pt too wide) detected at line 94
[][]\T1/phv/m/n/10.95 108[] 1229 1218 [][]\T1/phv/m/n/10.95 108[]
[] 1230 1219 []
1231 1220
) 1232 1221 )
\tf@toc=\write4 1233 1222 \tf@toc=\write4
\openout4 = `main.toc'. 1234 1223 \openout4 = `main.toc'.
1235 1224
[8] [1 1236 1225 [8] [1
1237 1226
1238 1227
] [2] 1239 1228 ] [2]
Chapitre 1. 1240 1229 Chapitre 1.
Package lettrine.sty Info: Targeted height = 19.96736pt 1241 1230 Package lettrine.sty Info: Targeted height = 19.96736pt
(lettrine.sty) (for loversize=0, accent excluded), 1242 1231 (lettrine.sty) (for loversize=0, accent excluded),
(lettrine.sty) Lettrine height = 20.612pt (\uppercase {C}); 1243 1232 (lettrine.sty) Lettrine height = 20.612pt (\uppercase {C});
(lettrine.sty) reported on input line 340. 1244 1233 (lettrine.sty) reported on input line 342.
1245 1234
Overfull \hbox (6.79999pt too wide) in paragraph at lines 340--340 1246 1235 Overfull \hbox (6.79999pt too wide) in paragraph at lines 342--342
[][][][] 1247 1236 [][][][]
[] 1248 1237 []
1249 1238
1250 1239
Underfull \vbox (badness 10000) has occurred while \output is active [] 1251 1240 Underfull \vbox (badness 10000) has occurred while \output is active []
1252 1241
[3 1253 1242 [3
1254 1243
] 1255 1244 ]
[4] [5] [6 1256 1245 [4] [5] [6
1257 1246
] [7] [8] 1258 1247 ] [7] [8]
\openout2 = `./chapters/contexte2.aux'. 1259 1248 \openout2 = `./chapters/contexte2.aux'.
1260 1249
(./chapters/contexte2.tex 1261 1250 (./chapters/contexte2.tex
Chapitre 2. 1262 1251 Chapitre 2.
<./Figures/TLearning.png, id=566, 603.25375pt x 331.2375pt> 1263 1252 <./Figures/TLearning.png, id=556, 603.25375pt x 331.2375pt>
File: ./Figures/TLearning.png Graphic file (type png) 1264 1253 File: ./Figures/TLearning.png Graphic file (type png)
<use ./Figures/TLearning.png> 1265 1254 <use ./Figures/TLearning.png>
Package pdftex.def Info: ./Figures/TLearning.png used on input line 15. 1266 1255 Package pdftex.def Info: ./Figures/TLearning.png used on input line 15.
(pdftex.def) Requested size: 427.43153pt x 234.69505pt. 1267 1256 (pdftex.def) Requested size: 427.43153pt x 234.69505pt.
[9 1268 1257 [9
1269 1258
1270 1259
] 1271 1260 ]
<./Figures/EIAH.png, id=575, 643.40375pt x 362.35374pt> 1272 1261 <./Figures/EIAH.png, id=565, 643.40375pt x 362.35374pt>
File: ./Figures/EIAH.png Graphic file (type png) 1273 1262 File: ./Figures/EIAH.png Graphic file (type png)
<use ./Figures/EIAH.png> 1274 1263 <use ./Figures/EIAH.png>
Package pdftex.def Info: ./Figures/EIAH.png used on input line 32. 1275 1264 Package pdftex.def Info: ./Figures/EIAH.png used on input line 32.
(pdftex.def) Requested size: 427.43153pt x 240.73pt. 1276 1265 (pdftex.def) Requested size: 427.43153pt x 240.73pt.
1277 1266
1278 1267
LaTeX Warning: `!h' float specifier changed to `!ht'. 1279 1268 LaTeX Warning: `!h' float specifier changed to `!ht'.
1280 1269
[10 <./Figures/TLearning.png>] [11 <./Figures/EIAH.png>] [12] 1281 1270 [10 <./Figures/TLearning.png>] [11 <./Figures/EIAH.png>] [12]
<./Figures/cycle.png, id=603, 668.4975pt x 665.48625pt> 1282 1271 <./Figures/cycle.png, id=593, 668.4975pt x 665.48625pt>
File: ./Figures/cycle.png Graphic file (type png) 1283 1272 File: ./Figures/cycle.png Graphic file (type png)
<use ./Figures/cycle.png> 1284 1273 <use ./Figures/cycle.png>
Package pdftex.def Info: ./Figures/cycle.png used on input line 83. 1285 1274 Package pdftex.def Info: ./Figures/cycle.png used on input line 83.
(pdftex.def) Requested size: 427.43153pt x 425.51372pt. 1286 1275 (pdftex.def) Requested size: 427.43153pt x 425.51372pt.
[13 <./Figures/cycle.png>] 1287 1276 [13 <./Figures/cycle.png>]
<./Figures/Reuse.png, id=625, 383.4325pt x 182.6825pt> 1288 1277 <./Figures/Reuse.png, id=615, 383.4325pt x 182.6825pt>
File: ./Figures/Reuse.png Graphic file (type png) 1289 1278 File: ./Figures/Reuse.png Graphic file (type png)
<use ./Figures/Reuse.png> 1290 1279 <use ./Figures/Reuse.png>
Package pdftex.def Info: ./Figures/Reuse.png used on input line 112. 1291 1280 Package pdftex.def Info: ./Figures/Reuse.png used on input line 112.
(pdftex.def) Requested size: 299.20076pt x 142.55865pt. 1292 1281 (pdftex.def) Requested size: 299.20076pt x 142.55865pt.
1293 1282
Underfull \hbox (badness 10000) in paragraph at lines 112--112 1294 1283 Underfull \hbox (badness 10000) in paragraph at lines 112--112
[]\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa 1295 1284 []\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa
-tion dans le RàPC (Tra-duit de 1296 1285 -tion dans le RàPC (Tra-duit de
[] 1297 1286 []
1298 1287
[14] 1299 1288 [14]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1300 1289 Underfull \vbox (badness 10000) has occurred while \output is active []
1301 1290
[15 <./Figures/Reuse.png>] 1302 1291 [15 <./Figures/Reuse.png>]
<./Figures/CycleCBR.png, id=646, 147.1899pt x 83.8332pt> 1303 1292 <./Figures/CycleCBR.png, id=635, 147.1899pt x 83.8332pt>
File: ./Figures/CycleCBR.png Graphic file (type png) 1304 1293 File: ./Figures/CycleCBR.png Graphic file (type png)
<use ./Figures/CycleCBR.png> 1305 1294 <use ./Figures/CycleCBR.png>
Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156. 1306 1295 Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156.
(pdftex.def) Requested size: 427.43153pt x 243.45026pt. 1307 1296 (pdftex.def) Requested size: 427.43153pt x 243.45026pt.
1308 1297
Underfull \vbox (badness 10000) has occurred while \output is active [] 1309 1298 Underfull \vbox (badness 10000) has occurred while \output is active []
1310 1299
[16 <./Figures/CycleCBR.png>] 1311 1300 [16 <./Figures/CycleCBR.png>]
Underfull \vbox (badness 3189) has occurred while \output is active [] 1312 1301 Underfull \vbox (badness 3189) has occurred while \output is active []
1313 1302
[17] 1314 1303 [17]
[18] 1315 1304 [18]
1316 1305
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1317 1306 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1318 1307 65.
1319 1308
LaTeX Font Info: Trying to load font information for TS1+phv on input line 2 1320 1309 LaTeX Font Info: Trying to load font information for TS1+phv on input line 2
65. 1321 1310 65.
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd 1322 1311 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd
File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv. 1323 1312 File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv.
) 1324 1313 )
1325 1314
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1326 1315 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1327 1316 65.
1328 1317
1329 1318
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1330 1319 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1331 1320 65.
1332 1321
1333 1322
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1334 1323 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1335 1324 65.
1336 1325
1337 1326
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1338 1327 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1339 1328 65.
1340 1329
1341 1330
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1342 1331 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1343 1332 65.
1344 1333
Missing character: There is no · in font txr! 1345 1334 Missing character: There is no · in font txr!
Missing character: There is no · in font txr! 1346 1335 Missing character: There is no · in font txr!
Missing character: There is no · in font txr! 1347 1336 Missing character: There is no · in font txr!
1348 1337
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined 1349 1338 LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined
(Font) using `T1/phv/m/it' instead on input line 284. 1350 1339 (Font) using `T1/phv/m/it' instead on input line 284.
1351 1340
[19] [20] 1352 1341 [19] [20]
1353 1342
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined 1354 1343 LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined
(Font) using `T1/phv/m/it' instead on input line 333. 1355 1344 (Font) using `T1/phv/m/it' instead on input line 333.
1356 1345
1357 1346
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined 1358 1347 LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined
(Font) using `T1/phv/m/it' instead on input line 337. 1359 1348 (Font) using `T1/phv/m/it' instead on input line 337.
1360 1349
<./Figures/beta-distribution.png, id=722, 621.11293pt x 480.07928pt> 1361 1350 <./Figures/beta-distribution.png, id=712, 621.11293pt x 480.07928pt>
File: ./Figures/beta-distribution.png Graphic file (type png) 1362 1351 File: ./Figures/beta-distribution.png Graphic file (type png)
<use ./Figures/beta-distribution.png> 1363 1352 <use ./Figures/beta-distribution.png>
Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34 1364 1353 Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34
5. 1365 1354 5.
(pdftex.def) Requested size: 427.43153pt x 330.38333pt. 1366 1355 (pdftex.def) Requested size: 427.43153pt x 330.38333pt.
[21]) [22 <./Figures/beta-distribution.png>] 1367 1356 [21]) [22 <./Figures/beta-distribution.png>]
\openout2 = `./chapters/EIAH.aux'. 1368 1357 \openout2 = `./chapters/EIAH.aux'.
1369 1358
(./chapters/EIAH.tex 1370 1359 (./chapters/EIAH.tex
Chapitre 3. 1371 1360 Chapitre 3.
[23 1372 1361 [23
1373 1362
1374 1363
1375 1364
1376 1365
] 1377 1366 ]
Underfull \hbox (badness 10000) in paragraph at lines 24--25 1378 1367 Underfull \hbox (badness 10000) in paragraph at lines 24--25
[]\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé- 1379 1368 []\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé-
ci-sions stra-té- 1380 1369 ci-sions stra-té-
[] 1381 1370 []
1382 1371
1383 1372
Underfull \hbox (badness 1874) in paragraph at lines 24--25 1384 1373 Underfull \hbox (badness 1874) in paragraph at lines 24--25
\T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon 1385 1374 \T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon
tre le tra-vail de 1386 1375 tre le tra-vail de
[] 1387 1376 []
1388 1377
<./Figures/architecture.png, id=752, 776.9025pt x 454.69875pt> 1389 1378 <./Figures/architecture.png, id=742, 776.9025pt x 454.69875pt>
File: ./Figures/architecture.png Graphic file (type png) 1390 1379 File: ./Figures/architecture.png Graphic file (type png)
<use ./Figures/architecture.png> 1391 1380 <use ./Figures/architecture.png>
Package pdftex.def Info: ./Figures/architecture.png used on input line 38. 1392 1381 Package pdftex.def Info: ./Figures/architecture.png used on input line 38.
(pdftex.def) Requested size: 427.43153pt x 250.16833pt. 1393 1382 (pdftex.def) Requested size: 427.43153pt x 250.16833pt.
[24] 1394 1383 [24]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1395 1384 Underfull \vbox (badness 10000) has occurred while \output is active []
1396 1385
[25 <./Figures/architecture.png>] 1397 1386 [25 <./Figures/architecture.png>]
<./Figures/ELearningLevels.png, id=781, 602.25pt x 612.78937pt> 1398 1387 <./Figures/ELearningLevels.png, id=772, 602.25pt x 612.78937pt>
File: ./Figures/ELearningLevels.png Graphic file (type png) 1399 1388 File: ./Figures/ELearningLevels.png Graphic file (type png)
<use ./Figures/ELearningLevels.png> 1400 1389 <use ./Figures/ELearningLevels.png>
Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 62. 1401 1390 Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 62.
(pdftex.def) Requested size: 427.43153pt x 434.92455pt. 1402 1391 (pdftex.def) Requested size: 427.43153pt x 434.92455pt.
1403 1392
Underfull \hbox (badness 3690) in paragraph at lines 62--62 1404 1393 Underfull \hbox (badness 3690) in paragraph at lines 62--62
[]\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau 1405 1394 []\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau
x du sys-tème de re-com-man-da-tion dans 1406 1395 x du sys-tème de re-com-man-da-tion dans
[] 1407 1396 []
1408 1397
1409 1398
Underfull \vbox (badness 10000) has occurred while \output is active [] 1410 1399 Underfull \vbox (badness 10000) has occurred while \output is active []
1411 1400
[26] 1412 1401 [26]
Overfull \hbox (2.56369pt too wide) in paragraph at lines 82--82 1413 1402 Overfull \hbox (2.56369pt too wide) in paragraph at lines 82--82
[]|\T1/phv/m/n/9 [[]]| 1414 1403 []|\T1/phv/m/n/9 [[]]|
[] 1415 1404 []
1416 1405
1406 LaTeX Font Info: Font shape `T1/phv/m/it' in size <9> not available
1407 (Font) Font shape `T1/phv/m/sl' tried instead on input line 86.
1417 1408
Overfull \hbox (0.5975pt too wide) in paragraph at lines 77--93 1418 1409 Overfull \hbox (0.5975pt too wide) in paragraph at lines 77--93
[][] 1419 1410 [][]
[] 1420 1411 []
1421 1412
) [27 <./Figures/ELearningLevels.png>] [28] 1422 1413 ) [27 <./Figures/ELearningLevels.png>] [28]
\openout2 = `./chapters/CBR.aux'. 1423 1414 \openout2 = `./chapters/CBR.aux'.
1424 1415
(./chapters/CBR.tex 1425 1416 (./chapters/CBR.tex
Chapitre 4. 1426 1417 Chapitre 4.
[29 1427 1418 [29
1428 1419
1429 1420
1430 1421
1431 1422
] [30] 1432 1423 ] [30]
Underfull \hbox (badness 1048) in paragraph at lines 26--27 1433 1424 Underfull \hbox (badness 1048) in paragraph at lines 25--26
[]\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la 1434 1425 []\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la
1435 1426
[] 1436 1427 []
1437 1428
1429 <./Figures/ModCBR2.png, id=838, 1145.27875pt x 545.03625pt>
1430 File: ./Figures/ModCBR2.png Graphic file (type png)
1431 <use ./Figures/ModCBR2.png>
1432 Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 39.
1433 (pdftex.def) Requested size: 427.43153pt x 203.41505pt.
1438 1434
Overfull \hbox (24.44536pt too wide) has occurred while \output is active 1439 1435 Overfull \hbox (24.44536pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY 1440 1436 \T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY
CLE DU RÀPC \T1/phv/m/n/10.95 31 1441 1437 CLE DU RÀPC \T1/phv/m/n/10.95 31
[] 1442 1438 []
1443 1439
[31] 1444 1440 [31]
<./Figures/ModCBR2.png, id=854, 1145.27875pt x 545.03625pt> 1445 1441 <./Figures/ModCBR1.png, id=852, 942.52126pt x 624.83438pt>
File: ./Figures/ModCBR2.png Graphic file (type png) 1446
<use ./Figures/ModCBR2.png> 1447
Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 40. 1448
(pdftex.def) Requested size: 427.43153pt x 203.41505pt. 1449
<./Figures/ModCBR1.png, id=859, 942.52126pt x 624.83438pt> 1450
File: ./Figures/ModCBR1.png Graphic file (type png) 1451 1442 File: ./Figures/ModCBR1.png Graphic file (type png)
<use ./Figures/ModCBR1.png> 1452 1443 <use ./Figures/ModCBR1.png>
Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 46. 1453 1444 Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 45.
(pdftex.def) Requested size: 427.43153pt x 283.36574pt. 1454 1445 (pdftex.def) Requested size: 427.43153pt x 283.36574pt.
[32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34] 1455 1446 [32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34]
<./Figures/taxonomieEIAH.png, id=899, 984.67876pt x 614.295pt> 1456 1447 <./Figures/taxonomieEIAH.png, id=893, 984.67876pt x 614.295pt>
File: ./Figures/taxonomieEIAH.png Graphic file (type png) 1457 1448 File: ./Figures/taxonomieEIAH.png Graphic file (type png)
<use ./Figures/taxonomieEIAH.png> 1458 1449 <use ./Figures/taxonomieEIAH.png>
Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 82. 1459 1450 Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 81.
(pdftex.def) Requested size: 427.43153pt x 266.65376pt. 1460 1451 (pdftex.def) Requested size: 427.43153pt x 266.65376pt.
1461 1452
Underfull \hbox (badness 1895) in paragraph at lines 91--91 1462 1453 Underfull \hbox (badness 1895) in paragraph at lines 90--90
[][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés 1463 1454 [][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés
[] 1464 1455 []
1465 1456
1466 1457 [35]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1467 1458 Overfull \hbox (2.19226pt too wide) in paragraph at lines 108--108
1468
[35] 1469
Overfull \hbox (2.19226pt too wide) in paragraph at lines 109--109 1470
[]|\T1/phv/m/n/9 [[]]| 1471 1459 []|\T1/phv/m/n/9 [[]]|
[] 1472 1460 []
1473 1461
1474 1462
Overfull \hbox (8.65419pt too wide) in paragraph at lines 115--115 1475 1463 Overfull \hbox (8.65419pt too wide) in paragraph at lines 114--114
[]|\T1/phv/m/n/9 [[]]| 1476 1464 []|\T1/phv/m/n/9 [[]]|
[] 1477 1465 []
1478 1466
1479 1467
Overfull \hbox (1.23834pt too wide) in paragraph at lines 135--135 1480 1468 Overfull \hbox (1.23834pt too wide) in paragraph at lines 134--134
[]|\T1/phv/m/n/9 [[]]| 1481 1469 []|\T1/phv/m/n/9 [[]]|
[] 1482 1470 []
1483 1471
1484 1472
Overfull \hbox (7.38495pt too wide) in paragraph at lines 143--143 1485 1473 Overfull \hbox (7.38495pt too wide) in paragraph at lines 142--142
[]|\T1/phv/m/n/9 [[]]| 1486 1474 []|\T1/phv/m/n/9 [[]]|
[] 1487 1475 []
1488 1476
) [36 <./Figures/taxonomieEIAH.png>] 1489 1477 ) [36 <./Figures/taxonomieEIAH.png>]
Overfull \hbox (14.11055pt too wide) has occurred while \output is active 1490 1478 Overfull \hbox (14.11055pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C 1491 1479 \T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C
E CHAPITRE \T1/phv/m/n/10.95 37 1492 1480 E CHAPITRE \T1/phv/m/n/10.95 37
[] 1493 1481 []
1494 1482
[37] [38 1495 1483 [37] [38
1496 1484
1497 1485
1498 1486
] [39] [40] 1499 1487 ] [39] [40]
\openout2 = `./chapters/Architecture.aux'. 1500 1488 \openout2 = `./chapters/Architecture.aux'.
1501 1489
(./chapters/Architecture.tex 1502 1490 (./chapters/Architecture.tex
Chapitre 5. 1503 1491 Chapitre 5.
1504 1492
Underfull \vbox (badness 10000) has occurred while \output is active [] 1505 1493 Underfull \vbox (badness 10000) has occurred while \output is active []
1506 1494
[41 1507 1495 [41
1508 1496
1509 1497
] 1510 1498 ]
<./Figures/AIVT.png, id=977, 1116.17pt x 512.91624pt> 1511 1499 <./Figures/AIVT.png, id=969, 1116.17pt x 512.91624pt>
File: ./Figures/AIVT.png Graphic file (type png) 1512 1500 File: ./Figures/AIVT.png Graphic file (type png)
<use ./Figures/AIVT.png> 1513 1501 <use ./Figures/AIVT.png>
Package pdftex.def Info: ./Figures/AIVT.png used on input line 23. 1514 1502 Package pdftex.def Info: ./Figures/AIVT.png used on input line 23.
(pdftex.def) Requested size: 427.43153pt x 196.41287pt. 1515 1503 (pdftex.def) Requested size: 427.43153pt x 196.41287pt.
1516 1504
[42 <./Figures/AIVT.png>] 1517 1505 [42 <./Figures/AIVT.png>]
Underfull \hbox (badness 3049) in paragraph at lines 44--45 1518 1506 Underfull \hbox (badness 3049) in paragraph at lines 44--45
[]|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte- 1519 1507 []|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte-
[] 1520 1508 []
1521 1509
1522 1510
Underfull \hbox (badness 2435) in paragraph at lines 46--46 1523 1511 Underfull \hbox (badness 2435) in paragraph at lines 46--46
[]|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière 1524 1512 []|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière
[] 1525 1513 []
1526 1514
1527 1515
Underfull \hbox (badness 7468) in paragraph at lines 47--48 1528 1516 Underfull \hbox (badness 7468) in paragraph at lines 47--48
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- 1529 1517 []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis-
[] 1530 1518 []
1531 1519
1532 1520
Underfull \hbox (badness 7468) in paragraph at lines 48--49 1533 1521 Underfull \hbox (badness 7468) in paragraph at lines 48--49
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- 1534 1522 []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis-
[] 1535 1523 []
1536 1524
1537 1525
Underfull \hbox (badness 5050) in paragraph at lines 52--52 1538 1526 Underfull \hbox (badness 5050) in paragraph at lines 52--52
[]|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues 1539 1527 []|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues
[] 1540 1528 []
1541 1529
1542 1530
Underfull \hbox (badness 10000) in paragraph at lines 54--55 1543 1531 Underfull \hbox (badness 10000) in paragraph at lines 54--55
[]|\T1/phv/m/n/10.95 Connaissances et 1544 1532 []|\T1/phv/m/n/10.95 Connaissances et
[] 1545 1533 []
1546 1534
1547 1535
Overfull \hbox (1.98096pt too wide) in paragraph at lines 57--57 1548 1536 Overfull \hbox (1.98096pt too wide) in paragraph at lines 57--57
[]|\T1/phv/m/n/10.95 Représentation 1549 1537 []|\T1/phv/m/n/10.95 Représentation
[] 1550 1538 []
1551 1539
1552 1540
Overfull \hbox (1.98096pt too wide) in paragraph at lines 58--58 1553 1541 Overfull \hbox (1.98096pt too wide) in paragraph at lines 58--58
[]|\T1/phv/m/n/10.95 Représentation 1554 1542 []|\T1/phv/m/n/10.95 Représentation
[] 1555 1543 []
1556 1544
1557 1545
Underfull \hbox (badness 10000) in paragraph at lines 59--60 1558 1546 Underfull \hbox (badness 10000) in paragraph at lines 59--60
[]|\T1/phv/m/n/10.95 Représentation tex- 1559 1547 []|\T1/phv/m/n/10.95 Représentation tex-
[] 1560 1548 []
1561 1549
1562 1550
Underfull \hbox (badness 10000) in paragraph at lines 59--60 1563 1551 Underfull \hbox (badness 10000) in paragraph at lines 59--60
\T1/phv/m/n/10.95 tuel et gra-phique 1564 1552 \T1/phv/m/n/10.95 tuel et gra-phique
[] 1565 1553 []
1566 1554
1567 1555
Underfull \hbox (badness 2343) in paragraph at lines 63--64 1568 1556 Underfull \hbox (badness 2343) in paragraph at lines 63--64
[]|\T1/phv/m/n/10.95 Ordinateur ou ap-pa- 1569 1557 []|\T1/phv/m/n/10.95 Ordinateur ou ap-pa-
[] 1570 1558 []
1571 1559
1572 1560
Underfull \vbox (badness 10000) has occurred while \output is active [] 1573 1561 Underfull \vbox (badness 10000) has occurred while \output is active []
1574 1562
[43] 1575 1563 [43]
<./Figures/Architecture AI-VT2.png, id=993, 1029.8475pt x 948.54375pt> 1576 1564 <./Figures/Architecture AI-VT2.png, id=986, 1029.8475pt x 948.54375pt>
File: ./Figures/Architecture AI-VT2.png Graphic file (type png) 1577 1565 File: ./Figures/Architecture AI-VT2.png Graphic file (type png)
<use ./Figures/Architecture AI-VT2.png> 1578 1566 <use ./Figures/Architecture AI-VT2.png>
Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line 1579 1567 Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line
80. 1580 1568 80.
(pdftex.def) Requested size: 427.43153pt x 393.68173pt. 1581 1569 (pdftex.def) Requested size: 427.43153pt x 393.68173pt.
1582 1570
Underfull \vbox (badness 10000) has occurred while \output is active [] 1583 1571 Underfull \vbox (badness 10000) has occurred while \output is active []
1584 1572
[44] 1585 1573 [44]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1586 1574 Underfull \vbox (badness 10000) has occurred while \output is active []
1587 1575
[45 <./Figures/Architecture AI-VT2.png>] 1588 1576 [45 <./Figures/Architecture AI-VT2.png>]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1589 1577 Underfull \vbox (badness 10000) has occurred while \output is active []
1590 1578
[46] 1591 1579 [46]
[47] [48] 1592 1580 [47] [48]
<./Figures/Layers.png, id=1020, 392.46625pt x 216.81pt> 1593 1581 <./Figures/Layers.png, id=1016, 392.46625pt x 216.81pt>
File: ./Figures/Layers.png Graphic file (type png) 1594 1582 File: ./Figures/Layers.png Graphic file (type png)
<use ./Figures/Layers.png> 1595 1583 <use ./Figures/Layers.png>
Package pdftex.def Info: ./Figures/Layers.png used on input line 153. 1596 1584 Package pdftex.def Info: ./Figures/Layers.png used on input line 153.
(pdftex.def) Requested size: 313.9734pt x 173.44823pt. 1597 1585 (pdftex.def) Requested size: 313.9734pt x 173.44823pt.
<./Figures/flow.png, id=1022, 721.69624pt x 593.21625pt> 1598 1586 <./Figures/flow.png, id=1018, 721.69624pt x 593.21625pt>
File: ./Figures/flow.png Graphic file (type png) 1599 1587 File: ./Figures/flow.png Graphic file (type png)
<use ./Figures/flow.png> 1600 1588 <use ./Figures/flow.png>
Package pdftex.def Info: ./Figures/flow.png used on input line 164. 1601 1589 Package pdftex.def Info: ./Figures/flow.png used on input line 164.
(pdftex.def) Requested size: 427.43153pt x 351.33421pt. 1602 1590 (pdftex.def) Requested size: 427.43153pt x 351.33421pt.
) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>] 1603 1591 ) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>]
\openout2 = `./chapters/ESCBR.aux'. 1604 1592 \openout2 = `./chapters/ESCBR.aux'.
1605 1593
1606 1594
(./chapters/ESCBR.tex 1607 1595 (./chapters/ESCBR.tex
Chapitre 6. 1608 1596 Chapitre 6.
1609 1597
Underfull \hbox (badness 1552) in paragraph at lines 7--9 1610 1598 Underfull \hbox (badness 1552) in paragraph at lines 7--9
\T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment b 1611 1599 \T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment b
ayé-sien. Cette as-so-cia-tion, 1612 1600 ayé-sien. Cette as-so-cia-tion,
[] 1613 1601 []
1614 1602
1615 1603
Underfull \hbox (badness 10000) in paragraph at lines 7--9 1616 1604 Underfull \hbox (badness 10000) in paragraph at lines 7--9
1617 1605
[] 1618 1606 []
1619 1607
[51 1620 1608 [51
1621 1609
1622 1610
1623 1611
1624 1612
] 1625 1613 ]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1626 1614 Underfull \vbox (badness 10000) has occurred while \output is active []
1627 1615
[52] 1628 1616 [52]
<./Figures/NCBR0.png, id=1066, 623.32875pt x 459.7175pt> 1629 1617 <./Figures/NCBR0.png, id=1062, 623.32875pt x 459.7175pt>
File: ./Figures/NCBR0.png Graphic file (type png) 1630 1618 File: ./Figures/NCBR0.png Graphic file (type png)
<use ./Figures/NCBR0.png> 1631 1619 <use ./Figures/NCBR0.png>
Package pdftex.def Info: ./Figures/NCBR0.png used on input line 33. 1632 1620 Package pdftex.def Info: ./Figures/NCBR0.png used on input line 33.
(pdftex.def) Requested size: 427.43153pt x 315.24129pt. 1633 1621 (pdftex.def) Requested size: 427.43153pt x 315.24129pt.
1634 1622
[53 <./Figures/NCBR0.png>] 1635 1623 [53 <./Figures/NCBR0.png>]
<./Figures/FlowCBR0.png, id=1077, 370.38374pt x 661.47125pt> 1636 1624 <./Figures/FlowCBR0.png, id=1073, 370.38374pt x 661.47125pt>
File: ./Figures/FlowCBR0.png Graphic file (type png) 1637 1625 File: ./Figures/FlowCBR0.png Graphic file (type png)
<use ./Figures/FlowCBR0.png> 1638 1626 <use ./Figures/FlowCBR0.png>
Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 42. 1639 1627 Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 42.
(pdftex.def) Requested size: 222.23195pt x 396.8858pt. 1640 1628 (pdftex.def) Requested size: 222.23195pt x 396.8858pt.
[54 <./Figures/FlowCBR0.png>] 1641 1629 [54 <./Figures/FlowCBR0.png>]
<./Figures/Stacking1.png, id=1086, 743.77875pt x 414.54875pt> 1642 1630 <./Figures/Stacking1.png, id=1082, 743.77875pt x 414.54875pt>
File: ./Figures/Stacking1.png Graphic file (type png) 1643 1631 File: ./Figures/Stacking1.png Graphic file (type png)
<use ./Figures/Stacking1.png> 1644 1632 <use ./Figures/Stacking1.png>
Package pdftex.def Info: ./Figures/Stacking1.png used on input line 81. 1645 1633 Package pdftex.def Info: ./Figures/Stacking1.png used on input line 81.
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. 1646 1634 (pdftex.def) Requested size: 427.43153pt x 238.23717pt.
[55] 1647 1635 [55]
<./Figures/SolRep.png, id=1097, 277.035pt x 84.315pt> 1648 1636 <./Figures/SolRep.png, id=1093, 277.035pt x 84.315pt>
File: ./Figures/SolRep.png Graphic file (type png) 1649 1637 File: ./Figures/SolRep.png Graphic file (type png)
<use ./Figures/SolRep.png> 1650 1638 <use ./Figures/SolRep.png>
Package pdftex.def Info: ./Figures/SolRep.png used on input line 95. 1651 1639 Package pdftex.def Info: ./Figures/SolRep.png used on input line 95.
(pdftex.def) Requested size: 277.03432pt x 84.31477pt. 1652 1640 (pdftex.def) Requested size: 277.03432pt x 84.31477pt.
<./Figures/AutomaticS.png, id=1098, 688.5725pt x 548.0475pt> 1653 1641 <./Figures/AutomaticS.png, id=1094, 688.5725pt x 548.0475pt>
File: ./Figures/AutomaticS.png Graphic file (type png) 1654 1642 File: ./Figures/AutomaticS.png Graphic file (type png)
<use ./Figures/AutomaticS.png> 1655 1643 <use ./Figures/AutomaticS.png>
Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 104. 1656 1644 Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 104.
(pdftex.def) Requested size: 427.43153pt x 340.20406pt. 1657 1645 (pdftex.def) Requested size: 427.43153pt x 340.20406pt.
1658 1646
Underfull \vbox (badness 10000) has occurred while \output is active [] 1659 1647 Underfull \vbox (badness 10000) has occurred while \output is active []
1660 1648
[56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic 1661 1649 [56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic
S.png>] 1662 1650 S.png>]
[58] 1663 1651 [58]
<./Figures/Stacking2.png, id=1135, 743.77875pt x 414.54875pt> 1664 1652 <./Figures/Stacking2.png, id=1131, 743.77875pt x 414.54875pt>
File: ./Figures/Stacking2.png Graphic file (type png) 1665 1653 File: ./Figures/Stacking2.png Graphic file (type png)
<use ./Figures/Stacking2.png> 1666 1654 <use ./Figures/Stacking2.png>
Package pdftex.def Info: ./Figures/Stacking2.png used on input line 191. 1667 1655 Package pdftex.def Info: ./Figures/Stacking2.png used on input line 191.
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. 1668 1656 (pdftex.def) Requested size: 427.43153pt x 238.23717pt.
1669 1657
Underfull \hbox (badness 10000) in paragraph at lines 202--203 1670 1658 Underfull \hbox (badness 10000) in paragraph at lines 202--203
1671 1659
[] 1672 1660 []
1673 1661
[59 <./Figures/Stacking2.png>] 1674 1662 [59 <./Figures/Stacking2.png>]
<Figures/FW.png, id=1151, 456.70625pt x 342.27875pt> 1675 1663 <Figures/FW.png, id=1147, 456.70625pt x 342.27875pt>
File: Figures/FW.png Graphic file (type png) 1676 1664 File: Figures/FW.png Graphic file (type png)
<use Figures/FW.png> 1677 1665 <use Figures/FW.png>
Package pdftex.def Info: Figures/FW.png used on input line 216. 1678 1666 Package pdftex.def Info: Figures/FW.png used on input line 216.
(pdftex.def) Requested size: 427.43153pt x 320.34758pt. 1679 1667 (pdftex.def) Requested size: 427.43153pt x 320.34758pt.
[60 <./Figures/FW.png>] [61] 1680 1668 [60 <./Figures/FW.png>] [61]
<./Figures/boxplot.png, id=1172, 1994.45125pt x 959.585pt> 1681 1669 <./Figures/boxplot.png, id=1168, 1994.45125pt x 959.585pt>
File: ./Figures/boxplot.png Graphic file (type png) 1682 1670 File: ./Figures/boxplot.png Graphic file (type png)
<use ./Figures/boxplot.png> 1683 1671 <use ./Figures/boxplot.png>
Package pdftex.def Info: ./Figures/boxplot.png used on input line 321. 1684 1672 Package pdftex.def Info: ./Figures/boxplot.png used on input line 321.
(pdftex.def) Requested size: 427.43153pt x 205.64786pt. 1685 1673 (pdftex.def) Requested size: 427.43153pt x 205.64786pt.
[62] 1686 1674 [62]
Underfull \hbox (badness 10000) in paragraph at lines 340--341 1687 1675 Underfull \hbox (badness 10000) in paragraph at lines 340--341
1688 1676
[] 1689 1677 []
1690 1678
1691 1679
Underfull \hbox (badness 2564) in paragraph at lines 342--342 1692 1680 Underfull \hbox (badness 2564) in paragraph at lines 342--342
[][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi- 1693 1681 [][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi-
[] 1694 1682 []
1695 1683
1696 1684
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1697 1685 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1698 1686 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 63 1699 1687 S ESCBR \T1/phv/m/n/10.95 63
[] 1700 1688 []
1701 1689
[63 <./Figures/boxplot.png>] 1702 1690 [63 <./Figures/boxplot.png>]
<Figures/NCBR.png, id=1183, 653.44125pt x 445.665pt> 1703 1691 <Figures/NCBR.png, id=1179, 653.44125pt x 445.665pt>
File: Figures/NCBR.png Graphic file (type png) 1704 1692 File: Figures/NCBR.png Graphic file (type png)
<use Figures/NCBR.png> 1705 1693 <use Figures/NCBR.png>
Package pdftex.def Info: Figures/NCBR.png used on input line 352. 1706 1694 Package pdftex.def Info: Figures/NCBR.png used on input line 352.
(pdftex.def) Requested size: 427.43153pt x 291.5149pt. 1707 1695 (pdftex.def) Requested size: 427.43153pt x 291.5149pt.
[64 <./Figures/NCBR.png>] 1708 1696 [64 <./Figures/NCBR.png>]
<Figures/FlowCBR.png, id=1193, 450.68375pt x 822.07124pt> 1709 1697 <Figures/FlowCBR.png, id=1189, 450.68375pt x 822.07124pt>
File: Figures/FlowCBR.png Graphic file (type png) 1710 1698 File: Figures/FlowCBR.png Graphic file (type png)
<use Figures/FlowCBR.png> 1711 1699 <use Figures/FlowCBR.png>
Package pdftex.def Info: Figures/FlowCBR.png used on input line 381. 1712 1700 Package pdftex.def Info: Figures/FlowCBR.png used on input line 381.
(pdftex.def) Requested size: 270.41232pt x 493.24655pt. 1713 1701 (pdftex.def) Requested size: 270.41232pt x 493.24655pt.
1714 1702
Underfull \hbox (badness 1107) in paragraph at lines 414--415 1715 1703 Underfull \hbox (badness 1107) in paragraph at lines 414--415
[]\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co 1716 1704 []\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co
m-por-te-ments des agents 1717 1705 m-por-te-ments des agents
[] 1718 1706 []
1719 1707
1720 1708
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1721 1709 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1722 1710 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 65 1723 1711 S ESCBR \T1/phv/m/n/10.95 65
[] 1724 1712 []
1725 1713
[65] 1726 1714 [65]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1727 1715 Underfull \vbox (badness 10000) has occurred while \output is active []
1728 1716
[66 <./Figures/FlowCBR.png>] 1729 1717 [66 <./Figures/FlowCBR.png>]
<Figures/agent.png, id=1209, 352.31625pt x 402.50375pt> 1730 1718 <Figures/agent.png, id=1206, 352.31625pt x 402.50375pt>
File: Figures/agent.png Graphic file (type png) 1731 1719 File: Figures/agent.png Graphic file (type png)
<use Figures/agent.png> 1732 1720 <use Figures/agent.png>
Package pdftex.def Info: Figures/agent.png used on input line 455. 1733 1721 Package pdftex.def Info: Figures/agent.png used on input line 455.
(pdftex.def) Requested size: 246.61969pt x 281.7507pt. 1734 1722 (pdftex.def) Requested size: 246.61969pt x 281.7507pt.
1735 1723
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1736 1724 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1737 1725 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 67 1738 1726 S ESCBR \T1/phv/m/n/10.95 67
[] 1739 1727 []
1740 1728
[67] 1741 1729 [67]
<Figures/BayesianEvolution.png, id=1223, 626.34pt x 402.50375pt> 1742 1730 <Figures/BayesianEvolution.png, id=1220, 626.34pt x 402.50375pt>
File: Figures/BayesianEvolution.png Graphic file (type png) 1743 1731 File: Figures/BayesianEvolution.png Graphic file (type png)
<use Figures/BayesianEvolution.png> 1744 1732 <use Figures/BayesianEvolution.png>
Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 468. 1745 1733 Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 468.
1746 1734
(pdftex.def) Requested size: 313.16922pt x 201.25137pt. 1747 1735 (pdftex.def) Requested size: 313.16922pt x 201.25137pt.
[68 <./Figures/agent.png>] 1748 1736 [68 <./Figures/agent.png>]
Underfull \hbox (badness 10000) in paragraph at lines 509--509 1749 1737 Underfull \hbox (badness 10000) in paragraph at lines 509--509
[]|\T1/phv/m/n/8 Input. 1750 1738 []|\T1/phv/m/n/8 Input.
[] 1751 1739 []
1752 1740
1753 1741
Underfull \hbox (badness 10000) in paragraph at lines 509--510 1754 1742 Underfull \hbox (badness 10000) in paragraph at lines 509--510
[]|\T1/phv/m/n/8 Output 1755 1743 []|\T1/phv/m/n/8 Output
[] 1756 1744 []
1757 1745
<Figures/boxplot2.png, id=1238, 1615.03375pt x 835.12pt> 1758 1746 <Figures/boxplot2.png, id=1235, 1615.03375pt x 835.12pt>
File: Figures/boxplot2.png Graphic file (type png) 1759 1747 File: Figures/boxplot2.png Graphic file (type png)
<use Figures/boxplot2.png> 1760 1748 <use Figures/boxplot2.png>
Package pdftex.def Info: Figures/boxplot2.png used on input line 619. 1761 1749 Package pdftex.def Info: Figures/boxplot2.png used on input line 619.
(pdftex.def) Requested size: 427.43153pt x 221.01265pt. 1762 1750 (pdftex.def) Requested size: 427.43153pt x 221.01265pt.
1763 1751
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1764 1752 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1765 1753 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 69 1766 1754 S ESCBR \T1/phv/m/n/10.95 69
[] 1767 1755 []
1768 1756
[69 <./Figures/BayesianEvolution.png>] 1769 1757 [69 <./Figures/BayesianEvolution.png>]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1770 1758 Underfull \vbox (badness 10000) has occurred while \output is active []
1771 1759
[70] 1772 1760 [70]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1773 1761 Underfull \vbox (badness 10000) has occurred while \output is active []
1774 1762
1775 1763
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1776 1764 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1777 1765 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 71 1778 1766 S ESCBR \T1/phv/m/n/10.95 71
[] 1779 1767 []
1780 1768
[71 <./Figures/boxplot2.png>]) [72] 1781 1769 [71 <./Figures/boxplot2.png>]) [72]
\openout2 = `./chapters/TS.aux'. 1782 1770 \openout2 = `./chapters/TS.aux'.
1783 1771
(./chapters/TS.tex 1784 1772 (./chapters/TS.tex
Chapitre 7. 1785 1773 Chapitre 7.
1786 1774
Underfull \vbox (badness 10000) has occurred while \output is active [] 1787 1775 Underfull \vbox (badness 10000) has occurred while \output is active []
1788 1776
[73 1789 1777 [73
1790 1778
1791 1779
1792 1780
1793 1781
] 1794 1782 ]
Underfull \hbox (badness 1132) in paragraph at lines 13--14 1795 1783 Underfull \hbox (badness 1132) in paragraph at lines 13--14
\T1/phv/m/n/10.95 sen-tés dans les cha-pitres pré-cé-dents à AI-VT, cette pro-p 1796 1784 \T1/phv/m/n/10.95 sen-tés dans les cha-pitres pré-cé-dents à AI-VT, cette pro-p
o-si-tion est pu-blié dans 1797 1785 o-si-tion est pu-blié dans
[] 1798 1786 []
1799 1787
1800 1788
Overfull \hbox (19.02232pt too wide) in paragraph at lines 33--59 1801 1789 Overfull \hbox (19.02232pt too wide) in paragraph at lines 33--59
[][] 1802 1790 [][]
[] 1803 1791 []
1804 1792
[74] 1805 1793 [74]
Package hyperref Info: bookmark level for unknown algorithm defaults to 0 on in 1806 1794 Package hyperref Info: bookmark level for unknown algorithm defaults to 0 on in
put line 97. 1807 1795 put line 97.
[75] 1808 1796 [75]
<./Figures/dataset.png, id=1302, 15.13687pt x 8.08058pt> 1809 1797 <./Figures/dataset.png, id=1299, 15.13687pt x 8.08058pt>
File: ./Figures/dataset.png Graphic file (type png) 1810 1798 File: ./Figures/dataset.png Graphic file (type png)
<use ./Figures/dataset.png> 1811 1799 <use ./Figures/dataset.png>
Package pdftex.def Info: ./Figures/dataset.png used on input line 118. 1812 1800 Package pdftex.def Info: ./Figures/dataset.png used on input line 118.
(pdftex.def) Requested size: 427.43153pt x 228.35583pt. 1813 1801 (pdftex.def) Requested size: 427.43153pt x 228.35583pt.
[76] 1814 1802 [76]
<./Figures/comp2.png, id=1314, 14.98512pt x 7.33133pt> 1815 1803 <./Figures/comp2.png, id=1311, 14.98512pt x 7.33133pt>
File: ./Figures/comp2.png Graphic file (type png) 1816 1804 File: ./Figures/comp2.png Graphic file (type png)
<use ./Figures/comp2.png> 1817 1805 <use ./Figures/comp2.png>
Package pdftex.def Info: ./Figures/comp2.png used on input line 154. 1818 1806 Package pdftex.def Info: ./Figures/comp2.png used on input line 154.
(pdftex.def) Requested size: 427.43153pt x 209.34462pt. 1819 1807 (pdftex.def) Requested size: 427.43153pt x 209.34462pt.
<./Figures/comp3.png, id=1316, 14.98512pt x 7.33133pt> 1820 1808 <./Figures/comp3.png, id=1313, 14.98512pt x 7.33133pt>
File: ./Figures/comp3.png Graphic file (type png) 1821 1809 File: ./Figures/comp3.png Graphic file (type png)
<use ./Figures/comp3.png> 1822 1810 <use ./Figures/comp3.png>
Package pdftex.def Info: ./Figures/comp3.png used on input line 164. 1823 1811 Package pdftex.def Info: ./Figures/comp3.png used on input line 164.
(pdftex.def) Requested size: 427.43153pt x 209.34462pt. 1824 1812 (pdftex.def) Requested size: 427.43153pt x 209.34462pt.
1825 1813
Underfull \vbox (badness 1132) has occurred while \output is active [] 1826 1814 Underfull \vbox (badness 1132) has occurred while \output is active []
1827 1815
[77 <./Figures/dataset.png>] 1828 1816 [77 <./Figures/dataset.png>]
<./Figures/comp4.png, id=1326, 14.9377pt x 7.31236pt> 1829 1817 <./Figures/comp4.png, id=1323, 14.9377pt x 7.31236pt>
File: ./Figures/comp4.png Graphic file (type png) 1830 1818 File: ./Figures/comp4.png Graphic file (type png)
<use ./Figures/comp4.png> 1831 1819 <use ./Figures/comp4.png>
Package pdftex.def Info: ./Figures/comp4.png used on input line 172. 1832 1820 Package pdftex.def Info: ./Figures/comp4.png used on input line 172.
(pdftex.def) Requested size: 427.43153pt x 209.23985pt. 1833 1821 (pdftex.def) Requested size: 427.43153pt x 209.23985pt.
1834 1822
Underfull \vbox (badness 10000) has occurred while \output is active [] 1835 1823 Underfull \vbox (badness 10000) has occurred while \output is active []
1836 1824
[78 <./Figures/comp2.png>] 1837 1825 [78 <./Figures/comp2.png>]
Underfull \hbox (badness 10000) in paragraph at lines 195--196 1838 1826 Underfull \hbox (badness 10000) in paragraph at lines 195--196
1839 1827
[] 1840 1828 []
1841 1829
<./Figures/metric.png, id=1341, 16.95784pt x 7.68225pt> 1842 1830 <./Figures/metric.png, id=1338, 16.95784pt x 7.68225pt>
File: ./Figures/metric.png Graphic file (type png) 1843 1831 File: ./Figures/metric.png Graphic file (type png)
<use ./Figures/metric.png> 1844 1832 <use ./Figures/metric.png>
Package pdftex.def Info: ./Figures/metric.png used on input line 213. 1845 1833 Package pdftex.def Info: ./Figures/metric.png used on input line 213.
(pdftex.def) Requested size: 427.43153pt x 193.86665pt. 1846 1834 (pdftex.def) Requested size: 427.43153pt x 193.86665pt.
[79 <./Figures/comp3.png>] 1847 1835 [79 <./Figures/comp3.png>]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1848 1836 Underfull \vbox (badness 10000) has occurred while \output is active []
1849 1837
[80 <./Figures/comp4.png>] 1850 1838 [80 <./Figures/comp4.png>]
Underfull \hbox (badness 10000) in paragraph at lines 263--264 1851 1839 Underfull \hbox (badness 10000) in paragraph at lines 263--264
1852 1840
[] 1853 1841 []
1854 1842
<./Figures/metric2.png, id=1363, 16.48363pt x 7.66327pt> 1855 1843 <./Figures/metric2.png, id=1360, 16.48363pt x 7.66327pt>
File: ./Figures/metric2.png Graphic file (type png) 1856 1844 File: ./Figures/metric2.png Graphic file (type png)
<use ./Figures/metric2.png> 1857 1845 <use ./Figures/metric2.png>
Package pdftex.def Info: ./Figures/metric2.png used on input line 272. 1858 1846 Package pdftex.def Info: ./Figures/metric2.png used on input line 272.
(pdftex.def) Requested size: 427.43153pt x 198.89235pt. 1859 1847 (pdftex.def) Requested size: 427.43153pt x 198.89235pt.
[81 <./Figures/metric.png>] [82 <./Figures/metric2.png>] [83] [84] [85] 1860 1848 [81 <./Figures/metric.png>] [82 <./Figures/metric2.png>] [83] [84] [85]
[86] 1861 1849 [86]
<Figures/Model.png, id=1452, 3.47124pt x 2.85477pt> 1862 1850 <Figures/Model.png, id=1449, 3.47124pt x 2.85477pt>
File: Figures/Model.png Graphic file (type png) 1863 1851 File: Figures/Model.png Graphic file (type png)
<use Figures/Model.png> 1864 1852 <use Figures/Model.png>
Package pdftex.def Info: Figures/Model.png used on input line 477. 1865 1853 Package pdftex.def Info: Figures/Model.png used on input line 477.
(pdftex.def) Requested size: 299.20076pt x 246.23834pt. 1866 1854 (pdftex.def) Requested size: 299.20076pt x 246.23834pt.
LaTeX Font Info: Font shape `T1/phv/m/it' in size <9> not available 1867
(Font) Font shape `T1/phv/m/sl' tried instead on input line 490. 1868
[87 <./Figures/Model.png>] [88] 1869 1855 [87 <./Figures/Model.png>] [88]
Overfull \hbox (14.1589pt too wide) in paragraph at lines 581--603 1870 1856 Overfull \hbox (14.1589pt too wide) in paragraph at lines 581--603
[][] 1871 1857 [][]
[] 1872 1858 []
1873 1859
[89] 1874 1860 [89]
<Figures/kEvol_TS.jpg, id=1495, 742.775pt x 557.08125pt> 1875 1861 <Figures/kEvol_TS.jpg, id=1491, 742.775pt x 557.08125pt>
File: Figures/kEvol_TS.jpg Graphic file (type jpg) 1876 1862 File: Figures/kEvol_TS.jpg Graphic file (type jpg)
<use Figures/kEvol_TS.jpg> 1877 1863 <use Figures/kEvol_TS.jpg>
Package pdftex.def Info: Figures/kEvol_TS.jpg used on input line 650. 1878 1864 Package pdftex.def Info: Figures/kEvol_TS.jpg used on input line 650.
(pdftex.def) Requested size: 427.43153pt x 320.58275pt. 1879 1865 (pdftex.def) Requested size: 427.43153pt x 320.58275pt.
1880 1866
Underfull \hbox (badness 10000) in paragraph at lines 659--660 1881 1867 Underfull \hbox (badness 10000) in paragraph at lines 659--660
1882 1868
[] 1883 1869 []
1884 1870
[90] 1885 1871 [90]
<Figures/stabilityBoxplot.png, id=1507, 742.775pt x 520.94624pt> 1886 1872 <Figures/stabilityBoxplot.png, id=1503, 742.775pt x 520.94624pt>
File: Figures/stabilityBoxplot.png Graphic file (type png) 1887 1873 File: Figures/stabilityBoxplot.png Graphic file (type png)
<use Figures/stabilityBoxplot.png> 1888 1874 <use Figures/stabilityBoxplot.png>
Package pdftex.def Info: Figures/stabilityBoxplot.png used on input line 663. 1889 1875 Package pdftex.def Info: Figures/stabilityBoxplot.png used on input line 663.
(pdftex.def) Requested size: 427.43153pt x 299.78818pt. 1890 1876 (pdftex.def) Requested size: 427.43153pt x 299.78818pt.
\BOOKMARK [-1][]{part.1}{\376\377\000I\000\040\000C\000o\000n\000t\000e\000x\000t\000e\000\040\000e\000t\000\040\000P\000r\000o\000b\000l\000\351\000m\000a\000t\000i\000q\000u\000e\000s}{}% 1 1 1 \BOOKMARK [-1][]{part.1}{\376\377\000I\000\040\000C\000o\000n\000t\000e\000x\000t\000e\000\040\000e\000t\000\040\000P\000r\000o\000b\000l\000\351\000m\000a\000t\000i\000q\000u\000e\000s}{}% 1
\BOOKMARK [0][]{chapter.1}{\376\377\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{part.1}% 2 2 2 \BOOKMARK [0][]{chapter.1}{\376\377\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{part.1}% 2
\BOOKMARK [1][]{section.1.1}{\376\377\0001\000.\0001\000\040\000C\000o\000n\000t\000r\000i\000b\000u\000t\000i\000o\000n\000s\000\040\000P\000r\000i\000n\000c\000i\000p\000a\000l\000e\000s}{chapter.1}% 3 3 3 \BOOKMARK [1][]{section.1.1}{\376\377\0001\000.\0001\000\040\000C\000o\000n\000t\000r\000i\000b\000u\000t\000i\000o\000n\000s\000\040\000P\000r\000i\000n\000c\000i\000p\000a\000l\000e\000s}{chapter.1}% 3
\BOOKMARK [1][]{section.1.2}{\376\377\0001\000.\0002\000\040\000P\000l\000a\000n\000\040\000d\000e\000\040\000l\000a\000\040\000t\000h\000\350\000s\000e}{chapter.1}% 4 4 4 \BOOKMARK [1][]{section.1.2}{\376\377\0001\000.\0002\000\040\000P\000l\000a\000n\000\040\000d\000e\000\040\000l\000a\000\040\000t\000h\000\350\000s\000e}{chapter.1}% 4
\BOOKMARK [-1][]{part.2}{\376\377\000I\000I\000\040\000\311\000t\000a\000t\000\040\000d\000e\000\040\000l\000'\000a\000r\000t}{}% 5 5 5 \BOOKMARK [-1][]{part.2}{\376\377\000I\000I\000\040\000\311\000t\000a\000t\000\040\000d\000e\000\040\000l\000'\000a\000r\000t}{}% 5
\BOOKMARK [0][]{chapter.2}{\376\377\0002\000\040\000C\000o\000n\000t\000e\000x\000t\000e}{part.2}% 6 6 6 \BOOKMARK [0][]{chapter.2}{\376\377\0002\000\040\000C\000o\000n\000t\000e\000x\000t\000e}{part.2}% 6
\BOOKMARK [1][]{section.2.1}{\376\377\0002\000.\0001\000\040\000L\000e\000s\000\040\000s\000t\000r\000a\000t\000\351\000g\000i\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n\000\040\000e\000t\000\040\000l\000e\000s\000\040\000e\000n\000v\000i\000r\000o\000n\000n\000e\000m\000e\000n\000t\000s\000\040\000i\000n\000f\000o\000r\000m\000a\000t\000i\000q\000u\000e\000s\000\040\000p\000o\000u\000r\000\040\000l\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n\000\040\000\050\000E\000I\000A\000H\000\051}{chapter.2}% 7 7 7 \BOOKMARK [1][]{section.2.1}{\376\377\0002\000.\0001\000\040\000L\000e\000s\000\040\000s\000t\000r\000a\000t\000\351\000g\000i\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n\000\040\000e\000t\000\040\000l\000e\000s\000\040\000e\000n\000v\000i\000r\000o\000n\000n\000e\000m\000e\000n\000t\000s\000\040\000i\000n\000f\000o\000r\000m\000a\000t\000i\000q\000u\000e\000s\000\040\000p\000o\000u\000r\000\040\000l\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n\000\040\000\050\000E\000I\000A\000H\000\051}{chapter.2}% 7
\BOOKMARK [2][]{subsection.2.1.1}{\376\377\0002\000.\0001\000.\0001\000\040\000L\000e\000s\000\040\000s\000t\000r\000a\000t\000\351\000g\000i\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e}{section.2.1}% 8 8 8 \BOOKMARK [2][]{subsection.2.1.1}{\376\377\0002\000.\0001\000.\0001\000\040\000L\000e\000s\000\040\000s\000t\000r\000a\000t\000\351\000g\000i\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e}{section.2.1}% 8
\BOOKMARK [2][]{subsection.2.1.2}{\376\377\0002\000.\0001\000.\0002\000\040\000L\000e\000s\000\040\000E\000I\000A\000H}{section.2.1}% 9 9 9 \BOOKMARK [2][]{subsection.2.1.2}{\376\377\0002\000.\0001\000.\0002\000\040\000L\000e\000s\000\040\000E\000I\000A\000H}{section.2.1}% 9
\BOOKMARK [2][]{subsection.2.1.3}{\376\377\0002\000.\0001\000.\0003\000\040\000L\000'\000e\000x\000e\000r\000c\000i\000s\000e\000u\000r\000\040\000i\000n\000i\000t\000i\000a\000l\000\040\000A\000I\000-\000V\000T}{section.2.1}% 10 10 10 \BOOKMARK [2][]{subsection.2.1.3}{\376\377\0002\000.\0001\000.\0003\000\040\000L\000'\000e\000x\000e\000r\000c\000i\000s\000e\000u\000r\000\040\000i\000n\000i\000t\000i\000a\000l\000\040\000A\000I\000-\000V\000T}{section.2.1}% 10
\BOOKMARK [1][]{section.2.2}{\376\377\0002\000.\0002\000\040\000L\000e\000\040\000c\000o\000n\000t\000e\000x\000t\000e\000\040\000t\000e\000c\000h\000n\000i\000q\000u\000e}{chapter.2}% 11 11 11 \BOOKMARK [1][]{section.2.2}{\376\377\0002\000.\0002\000\040\000L\000e\000\040\000c\000o\000n\000t\000e\000x\000t\000e\000\040\000t\000e\000c\000h\000n\000i\000q\000u\000e}{chapter.2}% 11
\BOOKMARK [2][]{subsection.2.2.1}{\376\377\0002\000.\0002\000.\0001\000\040\000L\000e\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s\000\040\000\050\000R\000\340\000P\000C\000\051}{section.2.2}% 12 12 12 \BOOKMARK [2][]{subsection.2.2.1}{\376\377\0002\000.\0002\000.\0001\000\040\000L\000e\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s\000\040\000\050\000R\000\340\000P\000C\000\051}{section.2.2}% 12
\BOOKMARK [3][]{subsubsection.2.2.1.1}{\376\377\0002\000.\0002\000.\0001\000.\0001\000\040\000R\000e\000t\000r\000o\000u\000v\000e\000r\000\040\000\050\000R\000e\000c\000h\000e\000r\000c\000h\000e\000r\000\051}{subsection.2.2.1}% 13 13 13 \BOOKMARK [3][]{subsubsection.2.2.1.1}{\376\377\0002\000.\0002\000.\0001\000.\0001\000\040\000R\000e\000t\000r\000o\000u\000v\000e\000r\000\040\000\050\000R\000e\000c\000h\000e\000r\000c\000h\000e\000r\000\051}{subsection.2.2.1}% 13
\BOOKMARK [3][]{subsubsection.2.2.1.2}{\376\377\0002\000.\0002\000.\0001\000.\0002\000\040\000R\000\351\000u\000t\000i\000l\000i\000s\000e\000r\000\040\000\050\000A\000d\000a\000p\000t\000e\000r\000\051}{subsection.2.2.1}% 14 14 14 \BOOKMARK [3][]{subsubsection.2.2.1.2}{\376\377\0002\000.\0002\000.\0001\000.\0002\000\040\000R\000\351\000u\000t\000i\000l\000i\000s\000e\000r\000\040\000\050\000A\000d\000a\000p\000t\000e\000r\000\051}{subsection.2.2.1}% 14
\BOOKMARK [3][]{subsubsection.2.2.1.3}{\376\377\0002\000.\0002\000.\0001\000.\0003\000\040\000R\000\351\000v\000i\000s\000e\000r\000\040\000e\000t\000\040\000R\000\351\000p\000a\000r\000e\000r}{subsection.2.2.1}% 15 15 15 \BOOKMARK [3][]{subsubsection.2.2.1.3}{\376\377\0002\000.\0002\000.\0001\000.\0003\000\040\000R\000\351\000v\000i\000s\000e\000r\000\040\000e\000t\000\040\000R\000\351\000p\000a\000r\000e\000r}{subsection.2.2.1}% 15
\BOOKMARK [3][]{subsubsection.2.2.1.4}{\376\377\0002\000.\0002\000.\0001\000.\0004\000\040\000R\000e\000t\000e\000n\000i\000r\000\040\000\050\000S\000t\000o\000c\000k\000e\000r\000\051}{subsection.2.2.1}% 16 16 16 \BOOKMARK [3][]{subsubsection.2.2.1.4}{\376\377\0002\000.\0002\000.\0001\000.\0004\000\040\000R\000e\000t\000e\000n\000i\000r\000\040\000\050\000S\000t\000o\000c\000k\000e\000r\000\051}{subsection.2.2.1}% 16
\BOOKMARK [3][]{subsubsection.2.2.1.5}{\376\377\0002\000.\0002\000.\0001\000.\0005\000\040\000C\000o\000n\000t\000e\000n\000e\000u\000r\000s\000\040\000d\000e\000\040\000C\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e}{subsection.2.2.1}% 17 17 17 \BOOKMARK [3][]{subsubsection.2.2.1.5}{\376\377\0002\000.\0002\000.\0001\000.\0005\000\040\000C\000o\000n\000t\000e\000n\000e\000u\000r\000s\000\040\000d\000e\000\040\000C\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e}{subsection.2.2.1}% 17
\BOOKMARK [2][]{subsection.2.2.2}{\376\377\0002\000.\0002\000.\0002\000\040\000L\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s}{section.2.2}% 18 18 18 \BOOKMARK [2][]{subsection.2.2.2}{\376\377\0002\000.\0002\000.\0002\000\040\000L\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s}{section.2.2}% 18
\BOOKMARK [2][]{subsection.2.2.3}{\376\377\0002\000.\0002\000.\0003\000\040\000D\000i\000f\000f\000\351\000r\000e\000n\000t\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000e\000t\000\040\000f\000o\000n\000c\000t\000i\000o\000n\000s\000\040\000i\000m\000p\000l\000\351\000m\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000p\000e\000r\000s\000o\000n\000n\000a\000l\000i\000s\000a\000t\000i\000o\000n\000\040\000e\000t\000\040\000l\000'\000a\000d\000a\000p\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000\351\000a\000n\000c\000e\000s\000\040\000d\000'\000e\000n\000t\000r\000a\000\356\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 19 19 19 \BOOKMARK [2][]{subsection.2.2.3}{\376\377\0002\000.\0002\000.\0003\000\040\000D\000i\000f\000f\000\351\000r\000e\000n\000t\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000e\000t\000\040\000f\000o\000n\000c\000t\000i\000o\000n\000s\000\040\000i\000m\000p\000l\000\351\000m\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000p\000e\000r\000s\000o\000n\000n\000a\000l\000i\000s\000a\000t\000i\000o\000n\000\040\000e\000t\000\040\000l\000'\000a\000d\000a\000p\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000\351\000a\000n\000c\000e\000s\000\040\000d\000'\000e\000n\000t\000r\000a\000\356\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 19
\BOOKMARK [3][]{subsubsection.2.2.3.1}{\376\377\0002\000.\0002\000.\0003\000.\0001\000\040\000P\000e\000n\000s\000\351\000e\000\040\000B\000a\000y\000e\000s\000i\000e\000n\000n\000e}{subsection.2.2.3}% 20 20 20 \BOOKMARK [3][]{subsubsection.2.2.3.1}{\376\377\0002\000.\0002\000.\0003\000.\0001\000\040\000P\000e\000n\000s\000\351\000e\000\040\000B\000a\000y\000e\000s\000i\000e\000n\000n\000e}{subsection.2.2.3}% 20
\BOOKMARK [3][]{subsubsection.2.2.3.2}{\376\377\0002\000.\0002\000.\0003\000.\0002\000\040\000M\000\351\000t\000h\000o\000d\000e\000\040\000d\000e\000s\000\040\000k\000\040\000p\000l\000u\000s\000\040\000p\000r\000o\000c\000h\000e\000s\000\040\000v\000o\000i\000s\000i\000n\000s\000\040\000\050\000K\000-\000N\000e\000a\000r\000e\000s\000t\000\040\000N\000e\000i\000g\000h\000b\000o\000r\000h\000o\000o\000d\000\040\000-\000\040\000K\000N\000N\000\051}{subsection.2.2.3}% 21 21 21 \BOOKMARK [3][]{subsubsection.2.2.3.2}{\376\377\0002\000.\0002\000.\0003\000.\0002\000\040\000M\000\351\000t\000h\000o\000d\000e\000\040\000d\000e\000s\000\040\000k\000\040\000p\000l\000u\000s\000\040\000p\000r\000o\000c\000h\000e\000s\000\040\000v\000o\000i\000s\000i\000n\000s\000\040\000\050\000K\000-\000N\000e\000a\000r\000e\000s\000t\000\040\000N\000e\000i\000g\000h\000b\000o\000r\000h\000o\000o\000d\000\040\000-\000\040\000K\000N\000N\000\051}{subsection.2.2.3}% 21
\BOOKMARK [3][]{subsubsection.2.2.3.3}{\376\377\0002\000.\0002\000.\0003\000.\0003\000\040\000K\000-\000M\000o\000y\000e\000n\000n\000e\000s}{subsection.2.2.3}% 22 22 22 \BOOKMARK [3][]{subsubsection.2.2.3.3}{\376\377\0002\000.\0002\000.\0003\000.\0003\000\040\000K\000-\000M\000o\000y\000e\000n\000n\000e\000s}{subsection.2.2.3}% 22
\BOOKMARK [3][]{subsubsection.2.2.3.4}{\376\377\0002\000.\0002\000.\0003\000.\0004\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000e\000\040\000M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 23 23 23 \BOOKMARK [3][]{subsubsection.2.2.3.4}{\376\377\0002\000.\0002\000.\0003\000.\0004\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000e\000\040\000m\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 23
\BOOKMARK [3][]{subsubsection.2.2.3.5}{\376\377\0002\000.\0002\000.\0003\000.\0005\000\040\000F\000u\000z\000z\000y\000-\000C}{subsection.2.2.3}% 24 24 24 \BOOKMARK [3][]{subsubsection.2.2.3.5}{\376\377\0002\000.\0002\000.\0003\000.\0005\000\040\000F\000u\000z\000z\000y\000-\000C}{subsection.2.2.3}% 24
\BOOKMARK [3][]{subsubsection.2.2.3.6}{\376\377\0002\000.\0002\000.\0003\000.\0006\000\040\000B\000a\000n\000d\000i\000t\000\040\000M\000a\000n\000c\000h\000o\000t\000\040\000M\000A\000B\000\040\000\050\000M\000u\000l\000t\000i\000-\000A\000r\000m\000e\000d\000\040\000B\000a\000n\000d\000i\000t\000s\000\051}{subsection.2.2.3}% 25 25 25 \BOOKMARK [3][]{subsubsection.2.2.3.6}{\376\377\0002\000.\0002\000.\0003\000.\0006\000\040\000B\000a\000n\000d\000i\000t\000\040\000M\000a\000n\000c\000h\000o\000t\000\040\000M\000A\000B\000\040\000\050\000M\000u\000l\000t\000i\000-\000A\000r\000m\000e\000d\000\040\000B\000a\000n\000d\000i\000t\000s\000\051}{subsection.2.2.3}% 25
\BOOKMARK [3][]{subsubsection.2.2.3.7}{\376\377\0002\000.\0002\000.\0003\000.\0007\000\040\000\311\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000T\000S\000\040\000\050\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000S\000a\000m\000p\000l\000i\000n\000g\000\051}{subsection.2.2.3}% 26 26 26 \BOOKMARK [3][]{subsubsection.2.2.3.7}{\376\377\0002\000.\0002\000.\0003\000.\0007\000\040\000\311\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000T\000S\000\040\000\050\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000S\000a\000m\000p\000l\000i\000n\000g\000\051}{subsection.2.2.3}% 26
\BOOKMARK [0][]{chapter.3}{\376\377\0003\000\040\000E\000n\000v\000i\000r\000o\000n\000n\000e\000m\000e\000n\000t\000s\000\040\000I\000n\000f\000o\000r\000m\000a\000t\000i\000q\000u\000e\000s\000\040\000d\000'\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000H\000u\000m\000a\000i\000n}{part.2}% 27 27 27 \BOOKMARK [0][]{chapter.3}{\376\377\0003\000\040\000E\000n\000v\000i\000r\000o\000n\000n\000e\000m\000e\000n\000t\000s\000\040\000I\000n\000f\000o\000r\000m\000a\000t\000i\000q\000u\000e\000s\000\040\000d\000'\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000H\000u\000m\000a\000i\000n}{part.2}% 27
\BOOKMARK [1][]{section.3.1}{\376\377\0003\000.\0001\000\040\000L\000'\000I\000n\000t\000e\000l\000l\000i\000g\000e\000n\000c\000e\000\040\000A\000r\000t\000i\000f\000i\000c\000i\000e\000l\000l\000e}{chapter.3}% 28 28 28 \BOOKMARK [1][]{section.3.1}{\376\377\0003\000.\0001\000\040\000L\000'\000I\000n\000t\000e\000l\000l\000i\000g\000e\000n\000c\000e\000\040\000A\000r\000t\000i\000f\000i\000c\000i\000e\000l\000l\000e}{chapter.3}% 28
\BOOKMARK [1][]{section.3.2}{\376\377\0003\000.\0002\000\040\000S\000y\000s\000t\000\350\000m\000e\000s\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000d\000a\000n\000s\000\040\000l\000e\000s\000\040\000E\000I\000A\000H}{chapter.3}% 29 29 29 \BOOKMARK [1][]{section.3.2}{\376\377\0003\000.\0002\000\040\000S\000y\000s\000t\000\350\000m\000e\000s\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000d\000a\000n\000s\000\040\000l\000e\000s\000\040\000E\000I\000A\000H}{chapter.3}% 29
\BOOKMARK [0][]{chapter.4}{\376\377\0004\000\040\000\311\000t\000a\000t\000\040\000d\000e\000\040\000l\000'\000a\000r\000t\000\040\000\050\000R\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000P\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000C\000a\000s\000\051}{part.2}% 30 30 30 \BOOKMARK [0][]{chapter.4}{\376\377\0004\000\040\000\311\000t\000a\000t\000\040\000d\000e\000\040\000l\000'\000a\000r\000t\000\040\000\050\000R\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000P\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000C\000a\000s\000\051}{part.2}% 30
\BOOKMARK [1][]{section.4.1}{\376\377\0004\000.\0001\000\040\000I\000n\000t\000\351\000g\000r\000a\000t\000i\000o\000n\000\040\000d\000'\000u\000n\000\040\000r\000\351\000s\000e\000a\000u\000\040\000d\000e\000\040\000n\000e\000u\000r\000o\000n\000e\000s\000\040\000d\000a\000n\000s\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 31 31 31 \BOOKMARK [1][]{section.4.1}{\376\377\0004\000.\0001\000\040\000I\000n\000t\000\351\000g\000r\000a\000t\000i\000o\000n\000\040\000d\000'\000u\000n\000\040\000r\000\351\000s\000e\000a\000u\000\040\000d\000e\000\040\000n\000e\000u\000r\000o\000n\000e\000s\000\040\000d\000a\000n\000s\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 31
\BOOKMARK [1][]{section.4.2}{\376\377\0004\000.\0002\000\040\000L\000e\000\040\000R\000\340\000P\000C\000\040\000p\000o\000u\000r\000\040\000c\000o\000n\000s\000t\000r\000u\000i\000r\000e\000\040\000o\000u\000\040\000c\000o\000r\000r\000i\000g\000e\000r\000\040\000u\000n\000\040\000t\000e\000x\000t\000e\000,\000\040\000p\000o\000u\000r\000\040\000c\000o\000n\000s\000o\000l\000i\000d\000e\000r\000\040\000o\000u\000\040\000e\000x\000p\000l\000i\000q\000u\000e\000r\000\040\000l\000e\000s\000\040\000r\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000o\000b\000t\000e\000n\000u\000s}{chapter.4}% 32 32 32 \BOOKMARK [1][]{section.4.2}{\376\377\0004\000.\0002\000\040\000L\000e\000\040\000R\000\340\000P\000C\000\040\000p\000o\000u\000r\000\040\000c\000o\000n\000s\000t\000r\000u\000i\000r\000e\000\040\000o\000u\000\040\000c\000o\000r\000r\000i\000g\000e\000r\000\040\000u\000n\000\040\000t\000e\000x\000t\000e\000,\000\040\000p\000o\000u\000r\000\040\000c\000o\000n\000s\000o\000l\000i\000d\000e\000r\000\040\000o\000u\000\040\000e\000x\000p\000l\000i\000q\000u\000e\000r\000\040\000l\000e\000s\000\040\000r\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000o\000b\000t\000e\000n\000u\000s}{chapter.4}% 32
\BOOKMARK [1][]{section.4.3}{\376\377\0004\000.\0003\000\040\000T\000r\000a\000v\000a\000u\000x\000\040\000r\000\351\000c\000e\000n\000t\000s\000\040\000s\000u\000r\000\040\000l\000a\000\040\000r\000e\000p\000r\000\351\000s\000e\000n\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000a\000s\000\040\000e\000t\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 33 33 33 \BOOKMARK [1][]{section.4.3}{\376\377\0004\000.\0003\000\040\000T\000r\000a\000v\000a\000u\000x\000\040\000r\000\351\000c\000e\000n\000t\000s\000\040\000s\000u\000r\000\040\000l\000a\000\040\000r\000e\000p\000r\000\351\000s\000e\000n\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000a\000s\000\040\000e\000t\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 33
\BOOKMARK [1][]{section.4.4}{\376\377\0004\000.\0004\000\040\000I\000n\000t\000\351\000g\000r\000a\000t\000i\000o\000n\000\040\000d\000'\000a\000u\000t\000r\000e\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000d\000a\000n\000s\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 34 34 34 \BOOKMARK [1][]{section.4.4}{\376\377\0004\000.\0004\000\040\000I\000n\000t\000\351\000g\000r\000a\000t\000i\000o\000n\000\040\000d\000'\000a\000u\000t\000r\000e\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000d\000a\000n\000s\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 34
\BOOKMARK [1][]{section.4.5}{\376\377\0004\000.\0005\000\040\000P\000r\000\351\000d\000i\000c\000t\000i\000o\000n\000\040\000e\000t\000\040\000i\000n\000t\000e\000r\000p\000o\000l\000a\000t\000i\000o\000n\000\040\000e\000n\000\040\000u\000t\000i\000l\000i\000s\000a\000n\000t\000\040\000l\000e\000\040\000R\000\340\000P\000C}{chapter.4}% 35 35 35 \BOOKMARK [1][]{section.4.5}{\376\377\0004\000.\0005\000\040\000P\000r\000\351\000d\000i\000c\000t\000i\000o\000n\000\040\000e\000t\000\040\000i\000n\000t\000e\000r\000p\000o\000l\000a\000t\000i\000o\000n\000\040\000e\000n\000\040\000u\000t\000i\000l\000i\000s\000a\000n\000t\000\040\000l\000e\000\040\000R\000\340\000P\000C}{chapter.4}% 35
\BOOKMARK [1][]{section.4.6}{\376\377\0004\000.\0006\000\040\000R\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000,\000\040\000E\000I\000A\000H\000\040\000e\000t\000\040\000R\000\340\000P\000C}{chapter.4}% 36 36 36 \BOOKMARK [1][]{section.4.6}{\376\377\0004\000.\0006\000\040\000R\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000,\000\040\000E\000I\000A\000H\000\040\000e\000t\000\040\000R\000\340\000P\000C}{chapter.4}% 36
\BOOKMARK [1][]{section.4.7}{\376\377\0004\000.\0007\000\040\000R\000\351\000c\000a\000p\000i\000t\000u\000l\000a\000t\000i\000f\000\040\000d\000e\000s\000\040\000l\000i\000m\000i\000t\000e\000s\000\040\000d\000e\000s\000\040\000t\000r\000a\000v\000a\000u\000x\000\040\000p\000r\000\351\000s\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000c\000e\000\040\000c\000h\000a\000p\000i\000t\000r\000e}{chapter.4}% 37 37 37 \BOOKMARK [1][]{section.4.7}{\376\377\0004\000.\0007\000\040\000R\000\351\000c\000a\000p\000i\000t\000u\000l\000a\000t\000i\000f\000\040\000d\000e\000s\000\040\000l\000i\000m\000i\000t\000e\000s\000\040\000d\000e\000s\000\040\000t\000r\000a\000v\000a\000u\000x\000\040\000p\000r\000\351\000s\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000c\000e\000\040\000c\000h\000a\000p\000i\000t\000r\000e}{chapter.4}% 37
\BOOKMARK [-1][]{part.3}{\376\377\000I\000I\000I\000\040\000C\000o\000n\000t\000r\000i\000b\000u\000t\000i\000o\000n\000s}{}% 38 38 38 \BOOKMARK [-1][]{part.3}{\376\377\000I\000I\000I\000\040\000C\000o\000n\000t\000r\000i\000b\000u\000t\000i\000o\000n\000s}{}% 38
\BOOKMARK [0][]{chapter.5}{\376\377\0005\000\040\000A\000r\000c\000h\000i\000t\000e\000c\000t\000u\000r\000e\000\040\000G\000l\000o\000b\000a\000l\000e\000\040\000d\000u\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000A\000I\000-\000V\000T}{part.3}% 39 39 39 \BOOKMARK [0][]{chapter.5}{\376\377\0005\000\040\000A\000r\000c\000h\000i\000t\000e\000c\000t\000u\000r\000e\000\040\000G\000l\000o\000b\000a\000l\000e\000\040\000d\000u\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000A\000I\000-\000V\000T}{part.3}% 39
\BOOKMARK [1][]{section.5.1}{\376\377\0005\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.5}% 40 40 40 \BOOKMARK [1][]{section.5.1}{\376\377\0005\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.5}% 40
\BOOKMARK [1][]{section.5.2}{\376\377\0005\000.\0002\000\040\000D\000e\000s\000c\000r\000i\000p\000t\000i\000o\000n\000\040\000d\000u\000\040\000s\000y\000s\000t\000\350\000m\000e\000\040\000A\000I\000-\000V\000T}{chapter.5}% 41 41 41 \BOOKMARK [1][]{section.5.2}{\376\377\0005\000.\0002\000\040\000D\000e\000s\000c\000r\000i\000p\000t\000i\000o\000n\000\040\000d\000u\000\040\000s\000y\000s\000t\000\350\000m\000e\000\040\000A\000I\000-\000V\000T}{chapter.5}% 41
\BOOKMARK [1][]{section.5.3}{\376\377\0005\000.\0003\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000'\000a\000r\000c\000h\000i\000t\000e\000c\000t\000u\000r\000e\000\040\000p\000r\000o\000p\000o\000s\000\351}{chapter.5}% 42 42 42 \BOOKMARK [1][]{section.5.3}{\376\377\0005\000.\0003\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000'\000a\000r\000c\000h\000i\000t\000e\000c\000t\000u\000r\000e\000\040\000p\000r\000o\000p\000o\000s\000\351}{chapter.5}% 42
\BOOKMARK [2][]{subsection.5.3.1}{\376\377\0005\000.\0003\000.\0001\000\040\000C\000o\000r\000r\000e\000c\000t\000i\000o\000n\000\040\000a\000u\000t\000o\000m\000a\000t\000i\000q\000u\000e}{section.5.3}% 43 43 43 \BOOKMARK [2][]{subsection.5.3.1}{\376\377\0005\000.\0003\000.\0001\000\040\000C\000o\000r\000r\000e\000c\000t\000i\000o\000n\000\040\000a\000u\000t\000o\000m\000a\000t\000i\000q\000u\000e}{section.5.3}% 43
\BOOKMARK [2][]{subsection.5.3.2}{\376\377\0005\000.\0003\000.\0002\000\040\000I\000d\000e\000n\000t\000i\000f\000i\000c\000a\000t\000i\000o\000n}{section.5.3}% 44 44 44 \BOOKMARK [2][]{subsection.5.3.2}{\376\377\0005\000.\0003\000.\0002\000\040\000I\000d\000e\000n\000t\000i\000f\000i\000c\000a\000t\000i\000o\000n}{section.5.3}% 44
\BOOKMARK [2][]{subsection.5.3.3}{\376\377\0005\000.\0003\000.\0003\000\040\000R\000\351\000v\000i\000s\000i\000o\000n}{section.5.3}% 45 45 45 \BOOKMARK [2][]{subsection.5.3.3}{\376\377\0005\000.\0003\000.\0003\000\040\000R\000\351\000v\000i\000s\000i\000o\000n}{section.5.3}% 45
\BOOKMARK [2][]{subsection.5.3.4}{\376\377\0005\000.\0003\000.\0004\000\040\000T\000e\000s\000t}{section.5.3}% 46 46 46 \BOOKMARK [2][]{subsection.5.3.4}{\376\377\0005\000.\0003\000.\0004\000\040\000T\000e\000s\000t}{section.5.3}% 46
\BOOKMARK [1][]{section.5.4}{\376\377\0005\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{chapter.5}% 47 47 47 \BOOKMARK [1][]{section.5.4}{\376\377\0005\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{chapter.5}% 47
\BOOKMARK [0][]{chapter.6}{\376\377\0006\000\040\000L\000e\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s\000\040\000\050\000R\000\340\000P\000C\000\051\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000r\000\351\000g\000r\000e\000s\000s\000i\000o\000n}{part.3}% 48 48 48 \BOOKMARK [0][]{chapter.6}{\376\377\0006\000\040\000L\000e\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s\000\040\000\050\000R\000\340\000P\000C\000\051\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000r\000\351\000g\000r\000e\000s\000s\000i\000o\000n}{part.3}% 48
\BOOKMARK [1][]{section.6.1}{\376\377\0006\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.6}% 49 49 49 \BOOKMARK [1][]{section.6.1}{\376\377\0006\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.6}% 49
\BOOKMARK [1][]{section.6.2}{\376\377\0006\000.\0002\000\040\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000p\000a\000r\000\040\000e\000m\000p\000i\000l\000e\000m\000e\000n\000t\000\040\000e\000t\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s}{chapter.6}% 50 50 50 \BOOKMARK [1][]{section.6.2}{\376\377\0006\000.\0002\000\040\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000p\000a\000r\000\040\000e\000m\000p\000i\000l\000e\000m\000e\000n\000t\000\040\000e\000t\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s}{chapter.6}% 50
\BOOKMARK [2][]{subsection.6.2.1}{\376\377\0006\000.\0002\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.6.2}% 51 51 51 \BOOKMARK [2][]{subsection.6.2.1}{\376\377\0006\000.\0002\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.6.2}% 51
\BOOKMARK [3][]{subsubsection.6.2.1.1}{\376\377\0006\000.\0002\000.\0001\000.\0001\000\040\000R\000e\000c\000h\000e\000r\000c\000h\000e\000r}{subsection.6.2.1}% 52 52 52 \BOOKMARK [3][]{subsubsection.6.2.1.1}{\376\377\0006\000.\0002\000.\0001\000.\0001\000\040\000R\000e\000c\000h\000e\000r\000c\000h\000e\000r}{subsection.6.2.1}% 52
\BOOKMARK [3][]{subsubsection.6.2.1.2}{\376\377\0006\000.\0002\000.\0001\000.\0002\000\040\000R\000\351\000u\000t\000i\000l\000i\000s\000e\000r}{subsection.6.2.1}% 53 53 53 \BOOKMARK [3][]{subsubsection.6.2.1.2}{\376\377\0006\000.\0002\000.\0001\000.\0002\000\040\000R\000\351\000u\000t\000i\000l\000i\000s\000e\000r}{subsection.6.2.1}% 53
\BOOKMARK [3][]{subsubsection.6.2.1.3}{\376\377\0006\000.\0002\000.\0001\000.\0003\000\040\000R\000\351\000v\000i\000s\000i\000o\000n}{subsection.6.2.1}% 54 54 54 \BOOKMARK [3][]{subsubsection.6.2.1.3}{\376\377\0006\000.\0002\000.\0001\000.\0003\000\040\000R\000\351\000v\000i\000s\000i\000o\000n}{subsection.6.2.1}% 54
\BOOKMARK [3][]{subsubsection.6.2.1.4}{\376\377\0006\000.\0002\000.\0001\000.\0004\000\040\000M\000\351\000m\000o\000r\000i\000s\000a\000t\000i\000o\000n}{subsection.6.2.1}% 55 55 55 \BOOKMARK [3][]{subsubsection.6.2.1.4}{\376\377\0006\000.\0002\000.\0001\000.\0004\000\040\000M\000\351\000m\000o\000r\000i\000s\000a\000t\000i\000o\000n}{subsection.6.2.1}% 55
\BOOKMARK [2][]{subsection.6.2.2}{\376\377\0006\000.\0002\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.6.2}% 56 56 56 \BOOKMARK [2][]{subsection.6.2.2}{\376\377\0006\000.\0002\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.6.2}% 56
\BOOKMARK [2][]{subsection.6.2.3}{\376\377\0006\000.\0002\000.\0003\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.6.2}% 57 57 57 \BOOKMARK [2][]{subsection.6.2.3}{\376\377\0006\000.\0002\000.\0003\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.6.2}% 57
\BOOKMARK [2][]{subsection.6.2.4}{\376\377\0006\000.\0002\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.6.2}% 58 58 58 \BOOKMARK [2][]{subsection.6.2.4}{\376\377\0006\000.\0002\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.6.2}% 58
\BOOKMARK [1][]{section.6.3}{\376\377\0006\000.\0003\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000:\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s\000\040\000d\000a\000n\000s\000\040\000E\000S\000C\000B\000R}{chapter.6}% 59 59 59 \BOOKMARK [1][]{section.6.3}{\376\377\0006\000.\0003\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000:\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s\000\040\000d\000a\000n\000s\000\040\000E\000S\000C\000B\000R}{chapter.6}% 59
\BOOKMARK [2][]{subsection.6.3.1}{\376\377\0006\000.\0003\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.6.3}% 60 60 60 \BOOKMARK [2][]{subsection.6.3.1}{\376\377\0006\000.\0003\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.6.3}% 60
\BOOKMARK [3][]{subsubsection.6.3.1.1}{\376\377\0006\000.\0003\000.\0001\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s}{subsection.6.3.1}% 61 61 61 \BOOKMARK [3][]{subsubsection.6.3.1.1}{\376\377\0006\000.\0003\000.\0001\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000s\000u\000i\000v\000i\000s\000\040\000p\000a\000r\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.6.3.1}% 61
\BOOKMARK [3][]{subsubsection.6.3.1.2}{\376\377\0006\000.\0003\000.\0001\000.\0002\000\040\000S\000t\000r\000u\000c\000t\000u\000r\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 62 62 62 \BOOKMARK [3][]{subsubsection.6.3.1.2}{\376\377\0006\000.\0003\000.\0001\000.\0002\000\040\000S\000t\000r\000u\000c\000t\000u\000r\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 62
\BOOKMARK [3][]{subsubsection.6.3.1.3}{\376\377\0006\000.\0003\000.\0001\000.\0003\000\040\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 63 63 63 \BOOKMARK [3][]{subsubsection.6.3.1.3}{\376\377\0006\000.\0003\000.\0001\000.\0003\000\040\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 63
\BOOKMARK [3][]{subsubsection.6.3.1.4}{\376\377\0006\000.\0003\000.\0001\000.\0004\000\040\000\311\000c\000h\000a\000n\000g\000e\000s\000\040\000e\000n\000t\000r\000e\000\040\000l\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 64 64 64 \BOOKMARK [3][]{subsubsection.6.3.1.4}{\376\377\0006\000.\0003\000.\0001\000.\0004\000\040\000\311\000c\000h\000a\000n\000g\000e\000s\000\040\000e\000n\000t\000r\000e\000\040\000l\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 64
\BOOKMARK [2][]{subsection.6.3.2}{\376\377\0006\000.\0003\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.6.3}% 65 65 65 \BOOKMARK [2][]{subsection.6.3.2}{\376\377\0006\000.\0003\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.6.3}% 65
\BOOKMARK [2][]{subsection.6.3.3}{\376\377\0006\000.\0003\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.6.3}% 66 66 66 \BOOKMARK [2][]{subsection.6.3.3}{\376\377\0006\000.\0003\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.6.3}% 66
\BOOKMARK [0][]{chapter.7}{\376\377\0007\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000R\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T}{part.3}% 67 67 67 \BOOKMARK [0][]{chapter.7}{\376\377\0007\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000R\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T}{part.3}% 67
\BOOKMARK [1][]{section.7.1}{\376\377\0007\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.7}% 68 68 68 \BOOKMARK [1][]{section.7.1}{\376\377\0007\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.7}% 68
\BOOKMARK [1][]{section.7.2}{\376\377\0007\000.\0002\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000s\000t\000o\000c\000h\000a\000s\000t\000i\000q\000u\000e\000\040\000f\000o\000n\000d\000\351\000\040\000s\000u\000r\000\040\000l\000'\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n}{chapter.7}% 69 69 69 \BOOKMARK [1][]{section.7.2}{\376\377\0007\000.\0002\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000s\000t\000o\000c\000h\000a\000s\000t\000i\000q\000u\000e\000\040\000f\000o\000n\000d\000\351\000\040\000s\000u\000r\000\040\000l\000'\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n}{chapter.7}% 69
\BOOKMARK [2][]{subsection.7.2.1}{\376\377\0007\000.\0002\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.2}% 70 70 70 \BOOKMARK [2][]{subsection.7.2.1}{\376\377\0007\000.\0002\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.2}% 70
\BOOKMARK [2][]{subsection.7.2.2}{\376\377\0007\000.\0002\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.7.2}% 71 71 71 \BOOKMARK [2][]{subsection.7.2.2}{\376\377\0007\000.\0002\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.7.2}% 71
\BOOKMARK [2][]{subsection.7.2.3}{\376\377\0007\000.\0002\000.\0003\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n\000\040\000e\000t\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.2}% 72 72 72 \BOOKMARK [2][]{subsection.7.2.3}{\376\377\0007\000.\0002\000.\0003\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n\000\040\000e\000t\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.2}% 72
\BOOKMARK [1][]{section.7.3}{\376\377\0007\000.\0003\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000e\000t\000\040\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n}{chapter.7}% 73 73 73 \BOOKMARK [1][]{section.7.3}{\376\377\0007\000.\0003\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000e\000t\000\040\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n}{chapter.7}% 73
\BOOKMARK [2][]{subsection.7.3.1}{\376\377\0007\000.\0003\000.\0001\000\040\000C\000o\000n\000c\000e\000p\000t\000s\000\040\000A\000s\000s\000o\000c\000i\000\351\000s}{section.7.3}% 74 74 74 \BOOKMARK [2][]{subsection.7.3.1}{\376\377\0007\000.\0003\000.\0001\000\040\000C\000o\000n\000c\000e\000p\000t\000s\000\040\000A\000s\000s\000o\000c\000i\000\351\000s}{section.7.3}% 74
\BOOKMARK [2][]{subsection.7.3.2}{\376\377\0007\000.\0003\000.\0002\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.3}% 75 75 75 \BOOKMARK [2][]{subsection.7.3.2}{\376\377\0007\000.\0003\000.\0002\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.3}% 75
\BOOKMARK [2][]{subsection.7.3.3}{\376\377\0007\000.\0003\000.\0003\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.3}% 76 76 76 \BOOKMARK [2][]{subsection.7.3.3}{\376\377\0007\000.\0003\000.\0003\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.3}% 76
\BOOKMARK [3][]{subsubsection.7.3.3.1}{\376\377\0007\000.\0003\000.\0003\000.\0001\000\040\000R\000\351\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000p\000o\000u\000r\000\040\000l\000'\000a\000i\000d\000e\000\040\000\340\000\040\000l\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n}{subsection.7.3.3}% 77 77 77 \BOOKMARK [3][]{subsubsection.7.3.3.1}{\376\377\0007\000.\0003\000.\0003\000.\0001\000\040\000R\000\351\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000p\000o\000u\000r\000\040\000l\000'\000a\000i\000d\000e\000\040\000\340\000\040\000l\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n}{subsection.7.3.3}% 77
\BOOKMARK [3][]{subsubsection.7.3.3.2}{\376\377\0007\000.\0003\000.\0003\000.\0002\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s}{subsection.7.3.3}% 78 78 78 \BOOKMARK [3][]{subsubsection.7.3.3.2}{\376\377\0007\000.\0003\000.\0003\000.\0002\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s}{subsection.7.3.3}% 78
\BOOKMARK [3][]{subsubsection.7.3.3.3}{\376\377\0007\000.\0003\000.\0003\000.\0003\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000u\000n\000\040\000j\000e\000u\000\040\000d\000e\000\040\000d\000o\000n\000n\000\351\000e\000s\000\040\000d\000'\000\351\000t\000u\000d\000i\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 79 79 79 \BOOKMARK [3][]{subsubsection.7.3.3.3}{\376\377\0007\000.\0003\000.\0003\000.\0003\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000u\000n\000\040\000j\000e\000u\000\040\000d\000e\000\040\000d\000o\000n\000n\000\351\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 79
\BOOKMARK [3][]{subsubsection.7.3.3.4}{\376\377\0007\000.\0003\000.\0003\000.\0004\000\040\000C\000o\000m\000p\000a\000r\000a\000i\000s\000o\000n\000\040\000e\000n\000t\000r\000e\000\040\000T\000S\000\040\000e\000t\000\040\000B\000K\000T}{subsection.7.3.3}% 80 80 80 \BOOKMARK [3][]{subsubsection.7.3.3.4}{\376\377\0007\000.\0003\000.\0003\000.\0004\000\040\000C\000o\000m\000p\000a\000r\000a\000i\000s\000o\000n\000\040\000e\000n\000t\000r\000e\000\040\000T\000S\000\040\000e\000t\000\040\000B\000K\000T}{subsection.7.3.3}% 80
\BOOKMARK [3][]{subsubsection.7.3.3.5}{\376\377\0007\000.\0003\000.\0003\000.\0005\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 81 81 81 \BOOKMARK [3][]{subsubsection.7.3.3.5}{\376\377\0007\000.\0003\000.\0003\000.\0005\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 81
\BOOKMARK [3][]{subsubsection.7.3.3.6}{\376\377\0007\000.\0003\000.\0003\000.\0006\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s\000\040\000T\000S\000\040\000v\000s\000\040\000T\000S\000\040\000e\000t\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 82 82 82 \BOOKMARK [3][]{subsubsection.7.3.3.6}{\376\377\0007\000.\0003\000.\0003\000.\0006\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s\000\040\000T\000S\000\040\000v\000s\000\040\000T\000S\000\040\000e\000t\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 82
\BOOKMARK [2][]{subsection.7.3.4}{\376\377\0007\000.\0003\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.3}% 83 83 83 \BOOKMARK [2][]{subsection.7.3.4}{\376\377\0007\000.\0003\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.3}% 83
\BOOKMARK [1][]{section.7.4}{\376\377\0007\000.\0004\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000,\000\040\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000e\000t\000\040\000p\000r\000o\000c\000e\000s\000s\000u\000s\000\040\000d\000e\000\040\000H\000a\000w\000k\000e\000s}{chapter.7}% 84 84 84 \BOOKMARK [1][]{section.7.4}{\376\377\0007\000.\0004\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000,\000\040\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000e\000t\000\040\000p\000r\000o\000c\000e\000s\000s\000u\000s\000\040\000d\000e\000\040\000H\000a\000w\000k\000e\000s}{chapter.7}% 84
\BOOKMARK [2][]{subsection.7.4.1}{\376\377\0007\000.\0004\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.4}% 85 85 85 \BOOKMARK [2][]{subsection.7.4.1}{\376\377\0007\000.\0004\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.4}% 85
\BOOKMARK [2][]{subsection.7.4.2}{\376\377\0007\000.\0004\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.4}% 86 86 86 \BOOKMARK [2][]{subsection.7.4.2}{\376\377\0007\000.\0004\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.4}% 86
\BOOKMARK [3][]{subsubsection.7.4.2.1}{\376\377\0007\000.\0004\000.\0002\000.\0001\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000u\000n\000\040\000j\000e\000u\000\040\000d\000e\000\040\000d\000o\000n\000n\000\351\000e\000s\000\040\000d\000'\000\351\000t\000u\000d\000i\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s\000\040\000\050\000T\000S\000\040\000a\000v\000e\000c\000\040\000H\000a\000w\000k\000e\000s\000\051}{subsection.7.4.2}% 87 87 87 \BOOKMARK [2][]{subsection.7.4.3}{\376\377\0007\000.\0004\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.4}% 87
\BOOKMARK [3][]{subsubsection.7.4.2.2}{\376\377\0007\000.\0004\000.\0002\000.\0002\000\040\000M\000e\000s\000u\000r\000e\000s\000\040\000d\000e\000\040\000p\000e\000r\000f\000o\000r\000m\000a\000n\000c\000e\000s}{subsection.7.4.2}% 88 88 88 \BOOKMARK [0][]{chapter.8}{\376\377\0008\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000s\000\040\000e\000t\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{part.3}% 88
\BOOKMARK [2][]{subsection.7.4.3}{\376\377\0007\000.\0004\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.4}% 89 89 89 \BOOKMARK [1][]{section.8.1}{\376\377\0008\000.\0001\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000\040\000g\000\351\000n\000\351\000r\000a\000l\000e}{chapter.8}% 89
\BOOKMARK [0][]{chapter.8}{\376\377\0008\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000s\000\040\000e\000t\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{part.3}% 90 90 90 \BOOKMARK [1][]{section.8.2}{\376\377\0008\000.\0002\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{chapter.8}% 90
\BOOKMARK [1][]{section.8.1}{\376\377\0008\000.\0001\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000\040\000g\000\351\000n\000\351\000r\000a\000l\000e}{chapter.8}% 91 91 91 \BOOKMARK [0][]{chapter.9}{\376\377\0009\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{part.3}% 91
\BOOKMARK [1][]{section.8.2}{\376\377\0008\000.\0002\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{chapter.8}% 92 92 92 \BOOKMARK [1][]{section.9.1}{\376\377\0009\000.\0001\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s\000\040\000l\000i\000\351\000e\000s\000\040\000a\000u\000\040\000s\000u\000j\000e\000t\000\040\000d\000e\000\040\000t\000h\000\350\000s\000e}{chapter.9}% 92
\BOOKMARK [0][]{chapter.9}{\376\377\0009\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{part.3}% 93 93 93 \BOOKMARK [1][]{section.9.2}{\376\377\0009\000.\0002\000\040\000A\000u\000t\000r\000e\000s\000\040\000p\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{chapter.9}% 93
\BOOKMARK [1][]{section.9.1}{\376\377\0009\000.\0001\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s\000\040\000l\000i\000\351\000e\000s\000\040\000a\000u\000\040\000s\000u\000j\000e\000t\000\040\000d\000e\000\040\000t\000h\000\350\000s\000e}{chapter.9}% 94 94
\BOOKMARK [1][]{section.9.2}{\376\377\0009\000.\0002\000\040\000A\000u\000t\000r\000e\000s\000\040\000p\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{chapter.9}% 95 95
96 94

No preview for this file type

main.synctex.gz View file @ 4b1afa3

No preview for this file type

%% Use the standard UP-methodology class 1 1 %% Use the standard UP-methodology class
%% with French language. 2 2 %% with French language.
%% 3 3 %%
%% You may specify the option 'twoside' or 'oneside' for 4 4 %% You may specify the option 'twoside' or 'oneside' for
%% the document. 5 5 %% the document.
%% 6 6 %%
%% See the documentation tex-upmethodology on 7 7 %% See the documentation tex-upmethodology on
%% http://www.arakhne.org/tex-upmethodology/ 8 8 %% http://www.arakhne.org/tex-upmethodology/
%% for details about the macros that are provided by the class and 9 9 %% for details about the macros that are provided by the class and
%% to obtain the list of the packages that are already included. 10 10 %% to obtain the list of the packages that are already included.
11 11
\documentclass[a4paper,french]{spimufcphdthesis} 12 12 \documentclass[a4paper,french]{spimufcphdthesis}
\renewcommand{\familydefault}{\sfdefault} % Met tout le texte en 'sans serif'. 13 13 \renewcommand{\familydefault}{\sfdefault} % Met tout le texte en 'sans serif'.
14 14
%%-------------------- 15 15 %%--------------------
%% The TeX code is entering with UTF8 16 16 %% The TeX code is entering with UTF8
%% character encoding (Linux and MacOS standards) 17 17 %% character encoding (Linux and MacOS standards)
\usepackage[utf8]{inputenc} 18 18 \usepackage[utf8]{inputenc}
19 19
\usepackage[T1]{fontenc} 20 20 \usepackage[T1]{fontenc}
\usepackage{times} 21 21 \usepackage{times}
\usepackage{graphicx} 22 22 \usepackage{graphicx}
\usepackage{xcolor,graphicx} 23 23 \usepackage{xcolor,graphicx}
24 24
\usepackage[export]{adjustbox} % Pour aligner image à droite 25 25 \usepackage[export]{adjustbox} % Pour aligner image à droite
26 26
\usepackage{url} 27 27 \usepackage{url}
%\geometry{margin=1in} 28 28 %\geometry{margin=1in}
29 29
%%------------------- 30 30 %%-------------------
%% NATBIB is enabled by default. 31 31 %% NATBIB is enabled by default.
%% If you would like to disable it, put the 'nonatbib' option to the class' options. 32 32 %% If you would like to disable it, put the 'nonatbib' option to the class' options.
33 33
%%-------------------- 34 34 %%--------------------
%% Include the 'multibib' package to enable to 35 35 %% Include the 'multibib' package to enable to
%% have different types of bibliographies in the 36 36 %% have different types of bibliographies in the
%% document (see at the end of this template for 37 37 %% document (see at the end of this template for
%% an example with a personnal bibliography and 38 38 %% an example with a personnal bibliography and
%% a general bibliography) 39 39 %% a general bibliography)
%% 40 40 %%
%% Each bibliography defined with 'multibib' 41 41 %% Each bibliography defined with 'multibib'
%% adds a chapter with the corresponding 42 42 %% adds a chapter with the corresponding
%% publications (in addition to the chapter for 43 43 %% publications (in addition to the chapter for
%% the standard/general bibliography). 44 44 %% the standard/general bibliography).
%% CAUTION: 45 45 %% CAUTION:
%% There is no standard way to do include this type of 46 46 %% There is no standard way to do include this type of
%% personnal bibliography. 47 47 %% personnal bibliography.
%% We propose to use 'multibib' package to help you, 48 48 %% We propose to use 'multibib' package to help you,
%% for example. 49 49 %% for example.
%\usepackage{multibib} 50 50 %\usepackage{multibib}
51 51
%% Define a "type" of bibliography, here the PERSONAL one, 52 52 %% Define a "type" of bibliography, here the PERSONAL one,
%% that is supported by 'multibib'. 53 53 %% that is supported by 'multibib'.
%\newcites{PERSO}{Liste de mes publications} 54 54 %\newcites{PERSO}{Liste de mes publications}
55 55
%% To cite one of your PERSONAL papers with the style 56 56 %% To cite one of your PERSONAL papers with the style
%% of the PERSONAL bibliography: \citePERSO{key} 57 57 %% of the PERSONAL bibliography: \citePERSO{key}
%% To force to show one of your PERSONAL papers into 58 58 %% To force to show one of your PERSONAL papers into
%% the PERSONAL bibliography, even if not cited in the 59 59 %% the PERSONAL bibliography, even if not cited in the
%% text: \nocitePERSO{key} 60 60 %% text: \nocitePERSO{key}
61 61
%% REMARK: When you are using 'multibib', you 62 62 %% REMARK: When you are using 'multibib', you
%% must compile the PERSONAL bibliography by hand. 63 63 %% must compile the PERSONAL bibliography by hand.
%% For example, the sequence of commands to run 64 64 %% For example, the sequence of commands to run
%% when you had defined the bibliography PERSO is: 65 65 %% when you had defined the bibliography PERSO is:
%% $ pdflatex my_document.tex 66 66 %% $ pdflatex my_document.tex
%% $ bibtex my_document.aux 67 67 %% $ bibtex my_document.aux
%% $ bibtex PERSO.aux 68 68 %% $ bibtex PERSO.aux
%% $ pdflatex my_document.tex 69 69 %% $ pdflatex my_document.tex
%% $ pdflatex my_document.tex 70 70 %% $ pdflatex my_document.tex
%% $ pdflatex my_document.tex 71 71 %% $ pdflatex my_document.tex
72 72
%%-------------------- 73 73 %%--------------------
%% Add here any other packages that are needed for your document. 74 74 %% Add here any other packages that are needed for your document.
%\usepackage{eurosim} 75 75 %\usepackage{eurosim}
\usepackage{amsmath} 76 76 \usepackage{amsmath}
\usepackage{algorithm} 77 77 \usepackage{algorithm}
\usepackage{algpseudocode} 78 78 \usepackage{algpseudocode}
\usepackage{xcolor} 79 79 \usepackage{xcolor}
80 80
%%-------------------- 81 81 %%--------------------
%% Set the title, subtitle, defense date, and 82 82 %% Set the title, subtitle, defense date, and
%% the registration number of the PhD thesis. 83 83 %% the registration number of the PhD thesis.
%% The optional parameter is the subtitle of the PhD thesis. 84 84 %% The optional parameter is the subtitle of the PhD thesis.
%% The first mandatory parameter is the title of the PhD thesis. 85 85 %% The first mandatory parameter is the title of the PhD thesis.
%% The second mandatory parameter is the date of the PhD defense. 86 86 %% The second mandatory parameter is the date of the PhD defense.
%% The third mandatory parameter is the location/city of the PhD defense. 87 87 %% The third mandatory parameter is the location/city of the PhD defense.
%% The forth mandatory parameter is the reference number given by 88 88 %% The forth mandatory parameter is the reference number given by
%% the University Library after the PhD defense. 89 89 %% the University Library after the PhD defense.
\declarethesis%[Sous-titre] 90 90 \declarethesis%[Sous-titre]
%{Adaptation en temps réel d'une séance d'entraînement par intelligence artificielle}{17 septembre 2025}{Besançon}{XXX} 91 91 %{Adaptation en temps réel d'une séance d'entraînement par intelligence artificielle}{17 septembre 2025}{Besançon}{XXX}
92 92
%%-------------------- 93 93 %%--------------------
%% Set the title in the secondary language 94 94 %% Set the title in the secondary language
%% (it is in English if the PhD dissertation is written in French; it is French if the PhD dissertation is written in English) 95 95 %% (it is in English if the PhD dissertation is written in French; it is French if the PhD dissertation is written in English)
%\declareminorthesistitle{Titre dans la langue secondaire} 96 96 %\declareminorthesistitle{Titre dans la langue secondaire}
97 97
%%-------------------- 98 98 %%--------------------
%% Add a member of the jury 99 99 %% Add a member of the jury
%% 100 100 %%
%% Two macros are provided: one without civility, one with civility. 101 101 %% Two macros are provided: one without civility, one with civility.
%% 102 102 %%
%% CAUTION 1: If a Jury member is not present during the defense, 103 103 %% CAUTION 1: If a Jury member is not present during the defense,
%% she/he must be in the list of the Jury members. 104 104 %% she/he must be in the list of the Jury members.
%% Only the reviewers and the members who are present during the defense must 105 105 %% Only the reviewers and the members who are present during the defense must
%% appear in the Jyry member list. 106 106 %% appear in the Jyry member list.
%% CAUTION 2: After your defense, you must assign the role "Pr\'esident" to 107 107 %% CAUTION 2: After your defense, you must assign the role "Pr\'esident" to
%% the Jury member who have been the President of the Jury. 108 108 %% the Jury member who have been the President of the Jury.
%% CAUTION 3: The recommended order for the Jury members is: 109 109 %% CAUTION 3: The recommended order for the Jury members is:
%% President, Reviewer(s), Examiner(s), Director(s), 110 110 %% President, Reviewer(s), Examiner(s), Director(s),
%% Other supervisor(s), Invited person(s). 111 111 %% Other supervisor(s), Invited person(s).
%% \addjury{Firstname}{Lastname}{Role in the jury}{Position} 112 112 %% \addjury{Firstname}{Lastname}{Role in the jury}{Position}
113 113
%%-------------------- 114 114 %%--------------------
%% Change style of the table of the jury 115 115 %% Change style of the table of the jury
%% \Set{jurystyle}{put macros for the style} 116 116 %% \Set{jurystyle}{put macros for the style}
%\Set{jurystyle}{\small} 117 117 %\Set{jurystyle}{\small}
118 118
%%-------------------- 119 119 %%--------------------
%% Set the English abstract 120 120 %% Set the English abstract
\thesisabstract[english]{The aim of this thesis work is to take into account in real time a learner's work for a better personalization of the intelligent tutoring system named AI-VT (Artificial Intelligence Virtual Trainer). 121 121 \thesisabstract[english]{The aim of this thesis work is to take into account in real time a learner's work for a better personalization of the intelligent tutoring system named AI-VT (Artificial Intelligence Virtual Trainer).
122 122
Some of the most common and typical problems in the field of intelligent tutoring systems (ITS) are (i) correctly identifying learners' difficulties in the learning process, (ii) adapting the content or presentation of the system according to the difficulties encountered, and (iii) the ability to adapt without initial data (cold start). In some cases, the system tolerates modifications after the skills have been acquired and assessed. Other systems require complicated real-time adaptation, as only a limited amount of data can be captured. In this case, they must be analyzed correctly and with a certain degree of precision in order to obtain the appropriate adaptations. The proposed architecture and the modules developed with artificial intelligence techniques work in tandem, exploiting the advantages of each to obtain effective adaptation proposals according to the evolution of learners' knowledge, thus enabling knowledge acquisition and progression in the learning process.} 123 123 Some of the most common and typical problems in the field of intelligent tutoring systems (ITS) are (i) correctly identifying learners' difficulties in the learning process, (ii) adapting the content or presentation of the system according to the difficulties encountered, and (iii) the ability to adapt without initial data (cold start). In some cases, the system tolerates modifications after the skills have been acquired and assessed. Other systems require complicated real-time adaptation, as only a limited amount of data can be captured. In this case, they must be analyzed correctly and with a certain degree of precision in order to obtain the appropriate adaptations. The proposed architecture and the modules developed with artificial intelligence techniques work in tandem, exploiting the advantages of each to obtain effective adaptation proposals according to the evolution of learners' knowledge, thus enabling knowledge acquisition and progression in the learning process.}
124 124
%%-------------------- 125 125 %%--------------------
%% Set the English keywords. They only appear if 126 126 %% Set the English keywords. They only appear if
%% there is an English abstract 127 127 %% there is an English abstract
\thesiskeywords[english]{Intelligent tutoring systems, Artificial intelligence, Case-based reasoning, Multi-agent systems, Bayesian reasoning, Thompson sampling, Hawkes process} 128 128 \thesiskeywords[english]{Intelligent tutoring systems, Artificial intelligence, Case-based reasoning, Multi-agent systems, Bayesian reasoning, Thompson sampling, Hawkes process}
129 129
%%-------------------- 130 130 %%--------------------
%% Set the French abstract 131 131 %% Set the French abstract
\thesisabstract[french]{L'objectif de ce travail de thèse est la prise en compte en temps réel du travail d'un apprenant pour une meilleure personnalisation de l'environnement informatique pour l'apprentissage humain AI-VT (Artificial Intelligence Virtual Trainer). 132 132 \thesisabstract[french]{L'objectif de ce travail de thèse est la prise en compte en temps réel du travail d'un apprenant pour une meilleure personnalisation de l'environnement informatique pour l'apprentissage humain AI-VT (Artificial Intelligence Virtual Trainer).
133 133
Certains des problèmes les plus courants et les plus typiques dans le domaine des environnements informatiques d'apprentissage humain (EIAH) sont (i) l'identification correcte des difficultés des apprenants dans le processus d'apprentissage, (ii) l'adaptation du contenu ou de la présentation du système en fonction des difficultés rencontrées, et (iii) la capacité à s'adapter sans données initiales (démarrage à froid). Dans certains cas, le système tolère des modifications après la réalisation et l'évaluation des compétences. D'autres systèmes nécessitent une adaptation compliquée en temps réel car seul un nombre limité de données peut être capturé. Dans ce cas, elles doivent être analysées correctement et avec une certaine précision afin d'obtenir les adaptations appropriées. L'architecture proposée et les modules développés avec techniques d'intelligence artificielle fonctionnent de manière associée en exploitant les avantages de chacun pour obtenir des propositions d'adaptation performantes selon l'évolution des connaissances des apprenants, permettant ainsi l'acquisition des connaissances et la progression dans le processus d'apprentissage. 134 134 Certains des problèmes les plus courants et les plus typiques dans le domaine des environnements informatiques d'apprentissage humain (EIAH) sont (i) l'identification correcte des difficultés des apprenants dans le processus d'apprentissage, (ii) l'adaptation du contenu ou de la présentation du système en fonction des difficultés rencontrées, et (iii) la capacité à s'adapter sans données initiales (démarrage à froid). Dans certains cas, le système tolère des modifications après la réalisation et l'évaluation des compétences. D'autres systèmes nécessitent une adaptation compliquée en temps réel car seul un nombre limité de données peut être capturé. Dans ce cas, elles doivent être analysées correctement et avec une certaine précision afin d'obtenir les adaptations appropriées. L'architecture proposée et les modules développés avec techniques d'intelligence artificielle fonctionnent de manière associée en exploitant les avantages de chacun pour obtenir des propositions d'adaptation performantes selon l'évolution des connaissances des apprenants, permettant ainsi l'acquisition des connaissances et la progression dans le processus d'apprentissage.
} 135 135 }
136 136
%%-------------------- 137 137 %%--------------------
%% Set the French keywords. They only appear if 138 138 %% Set the French keywords. They only appear if
%% there is an French abstract 139 139 %% there is an French abstract
\thesiskeywords[french]{Environnements informatiques d'apprentissage humain, Intelligence artificielle, raisonnement à partir de cas, systèmes multi-agents, raisonnement bayésien, échantillonnage de Thompson, processus de Hawkes} 140 140 \thesiskeywords[french]{Environnements informatiques d'apprentissage humain, Intelligence artificielle, raisonnement à partir de cas, systèmes multi-agents, raisonnement bayésien, échantillonnage de Thompson, processus de Hawkes}
141 141
%%-------------------- 142 142 %%--------------------
%% Change the layout and the style of the text of the "primary" abstract. 143 143 %% Change the layout and the style of the text of the "primary" abstract.
%% If your document is written in French, the primary abstract is in French, 144 144 %% If your document is written in French, the primary abstract is in French,
%% otherwise it is in English. 145 145 %% otherwise it is in English.
%\Set{primaryabstractstyle}{\tiny} 146 146 %\Set{primaryabstractstyle}{\tiny}
147 147
%%-------------------- 148 148 %%--------------------
%% Change the layout and the style of the text of the "secondary" abstract. 149 149 %% Change the layout and the style of the text of the "secondary" abstract.
%% If your document is written in French, the secondary abstract is in English, 150 150 %% If your document is written in French, the secondary abstract is in English,
%% otherwise it is in French. 151 151 %% otherwise it is in French.
%\Set{secondaryabstractstyle}{\tiny} 152 152 %\Set{secondaryabstractstyle}{\tiny}
153 153
%%-------------------- 154 154 %%--------------------
%% Change the layout and the style of the text of the "primary" keywords. 155 155 %% Change the layout and the style of the text of the "primary" keywords.
%% If your document is written in French, the primary keywords are in French, 156 156 %% If your document is written in French, the primary keywords are in French,
%% otherwise they are in English. 157 157 %% otherwise they are in English.
%\Set{primarykeywordstyle}{\tiny} 158 158 %\Set{primarykeywordstyle}{\tiny}
159 159
%%-------------------- 160 160 %%--------------------
%% Change the layout and the style of the text of the "secondary" keywords. 161 161 %% Change the layout and the style of the text of the "secondary" keywords.
%% If your document is written in French, the secondary keywords are in English, 162 162 %% If your document is written in French, the secondary keywords are in English,
%% otherwise they are in French. 163 163 %% otherwise they are in French.
%\Set{secondarykeywordstyle}{\tiny} 164 164 %\Set{secondarykeywordstyle}{\tiny}
165 165
%%-------------------- 166 166 %%--------------------
%% Change the speciality of the PhD thesis 167 167 %% Change the speciality of the PhD thesis
%\Set{speciality}{Informatique} 168 168 %\Set{speciality}{Informatique}
169 169
%%-------------------- 170 170 %%--------------------
%% Change the institution 171 171 %% Change the institution
%\Set{universityname}{Universit\'e de Technologie de Belfort-Montb\'eliard} 172 172 %\Set{universityname}{Universit\'e de Technologie de Belfort-Montb\'eliard}
173 173
174 174
%%-------------------- 175 175 %%--------------------
%% Clear the list of the laboratories 176 176 %% Clear the list of the laboratories
\resetlaboratories 177 177 \resetlaboratories
178 178
%%-------------------- 179 179 %%--------------------
%% Add the laboratory where the thesis was made 180 180 %% Add the laboratory where the thesis was made
%\addlaboratory{Laboratoire Connaissance et Intelligence Artificielle Distribu\'ees} 181 181 %\addlaboratory{Laboratoire Connaissance et Intelligence Artificielle Distribu\'ees}
182 182
%%-------------------- 183 183 %%--------------------
%% The name of the university that is jointly delivering the Doctoral degree with UBFC 184 184 %% The name of the university that is jointly delivering the Doctoral degree with UBFC
%\Set{jointuniversity}{Universit\'e de Ngaound\'er\'e au Cameroun} 185 185 %\Set{jointuniversity}{Universit\'e de Ngaound\'er\'e au Cameroun}
186 186
%%-------------------- 187 187 %%--------------------
%% Clear the list of the partner/sponsor logos 188 188 %% Clear the list of the partner/sponsor logos
%\resetpartners 189 189 %\resetpartners
190 190
%%-------------------- 191 191 %%--------------------
%% Add the logos of the partners or the sponsors on the front page 192 192 %% Add the logos of the partners or the sponsors on the front page
%% 193 193 %%
%% CAUTION 1: At least, the logo of the University should appear (UFC) 194 194 %% CAUTION 1: At least, the logo of the University should appear (UFC)
%% 195 195 %%
%\addpartner[image options]{image name} 196 196 %\addpartner[image options]{image name}
197 197
%\addpartner{ufc} 198 198 %\addpartner{ufc}
199 199
%%-------------------- 200 200 %%--------------------
%% Change the header and the foot of the pages. 201 201 %% Change the header and the foot of the pages.
%% You must include the package "fancyhdr" to 202 202 %% You must include the package "fancyhdr" to
%% have access to these macros. 203 203 %% have access to these macros.
%% Left header 204 204 %% Left header
%\lhead{} 205 205 %\lhead{}
%% Center header 206 206 %% Center header
%\chead{} 207 207 %\chead{}
%% Right header 208 208 %% Right header
%\rhead{} 209 209 %\rhead{}
%% Left footer 210 210 %% Left footer
%\lfoot{} 211 211 %\lfoot{}
%% Center footer 212 212 %% Center footer
%\cfoot{} 213 213 %\cfoot{}
%% Right footer 214 214 %% Right footer
%\rfoot{} 215 215 %\rfoot{}
216 216
%%-------------------- 217 217 %%--------------------
% Declare several theorems 218 218 % Declare several theorems
%\declareupmtheorem{mytheorem}{My Theorem}{List of my Theorems} 219 219 %\declareupmtheorem{mytheorem}{My Theorem}{List of my Theorems}
220 220
%%-------------------- 221 221 %%--------------------
%% Change the message on the backcover. 222 222 %% Change the message on the backcover.
%\Set{backcovermessage}{% 223 223 %\Set{backcovermessage}{%
% Some text 224 224 % Some text
%} 225 225 %}
226 226
\usepackage{layout} % Add this to view current margins 227 227 \usepackage{layout} % Add this to view current margins
228 228
\usepackage[pass]{geometry} 229 229 \usepackage[pass]{geometry}
230 230
\begin{document} 231 231 \begin{document}
232 232
\newgeometry{left=6cm, bottom=0.1cm} 233 233 \newgeometry{left=6cm, bottom=0.1cm}
234 234
\begin{titlepage} % Supprime headers et footers de la page 235 235 \begin{titlepage} % Supprime headers et footers de la page
\begin{figure}[t] 236 236 \begin{figure}[t]
\includegraphics[width=0.4\textwidth]{images_logos/image1_logoUBFC_grand.png}\hfill\includegraphics[width=0.4\textwidth]{images_logos/logo_UFC_2018_transparence.png} 237 237 \includegraphics[width=0.4\textwidth]{images_logos/image1_logoUBFC_grand.png}\hfill\includegraphics[width=0.4\textwidth]{images_logos/logo_UFC_2018_transparence.png}
\end{figure} 238 238 \end{figure}
239 239
\begin{center} 240 240 \begin{center}
241 241
\vspace*{1.0cm} 242 242 \vspace*{1.0cm}
\footnotesize{\textsf{\textbf{THESE DE DOCTORAT DE L’UNIVERSITE MARIE ET LOUIS PASTEUR\\~\\ 243 243 \footnotesize{\textsf{\textbf{THESE DE DOCTORAT DE L’UNIVERSITE MARIE ET LOUIS PASTEUR\\~\\
% PREPAREE A l'UNIVERSITE DE FRANCHE-COMTE 244 244 % PREPAREE A l'UNIVERSITE DE FRANCHE-COMTE
}}} 245 245 }}}
246 246
\vspace{1.0cm} 247 247 \vspace{1.0cm}
Ecole doctorale n\textsuperscript{o} 37\\~\\ 248 248 Ecole doctorale n\textsuperscript{o} 37\\~\\
Sciences Physique pour l’Ingénieur et Microtechniques 249 249 Sciences Physique pour l’Ingénieur et Microtechniques
250 250
\vspace{1.0cm} 251 251 \vspace{1.0cm}
Doctorat d'Informatique 252 252 Doctorat d'Informatique
253 253
\vspace{1.5cm} 254 254 \vspace{1.5cm}
Par\\~\\M. SOTO FORERO Daniel 255 255 Par\\~\\M. SOTO FORERO Daniel
256 256
\vspace{1.5cm} 257 257 \vspace{1.5cm}
258 \huge
Adaptation en temps réel d'une séance d'entraînement par intelligence artificielle 258 259 Adaptation en temps réel d'une séance d'entraînement par intelligence artificielle
259 260
261 \normalsize
%\vspace{0.12cm} 260 262 %\vspace{0.12cm}
%<Sous-titre ou deuxième ligne du titre de la thèse> 261 263 %<Sous-titre ou deuxième ligne du titre de la thèse>
262 264
\begin{flushleft} 263 265 \begin{flushleft}
264 266
\vspace{1.0cm} 265 267 \vspace{1.0cm}
Thèse présentée et soutenue à Besançon, le <date> 266 268 Thèse présentée et soutenue à Besançon, le <date>
267 269
\vspace{1.0cm} 268 270 \vspace{1.0cm}
Composition du Jury~: 269 271 Composition du Jury~:
270 272
\begin{tabbing} %Tabulations avec'\>', positions indiquées par '\='. 271 273 \begin{tabbing} %Tabulations avec'\>', positions indiquées par '\='.
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~\=~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~\=\\ % Définit les positions des tabulations 272 274 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~\=~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~\=\\ % Définit les positions des tabulations
M. GEORGES Sébastien \> Prof., Le Mans Université \> Rapporteur\\ 273 275 M. GEORGES Sébastien \> Prof., Le Mans Université \> Rapporteur\\
M. LIEBER Jean \> MCF HDR, Université de Lorraine \> Rapporteur\\ 274 276 M. LIEBER Jean \> MCF HDR, Université de Lorraine \> Rapporteur\\
M. PRIFTI Edi \> Dir. de recherche, IRD \> Examinateur\\ 275 277 M. PRIFTI Edi \> Dir. de recherche, IRD \> Examinateur\\
M. LANG Christophe \> Prof., Université Marie et Louis Pasteur \> Examinateur\\ 276 278 M. LANG Christophe \> Prof., Université Marie et Louis Pasteur \> Examinateur\\
M. HENRIET Julien \> MCF HDR, UMLP \> Directeur de thèse\\ 277 279 M. HENRIET Julien \> MCF HDR, UMLP \> Directeur de thèse\\
Mme BETBEDER Marie-Laure \> MCF, Université Marie et Louis Pasteur \> Codirectrice de thèse\\ 278 280 Mme BETBEDER Marie-Laure \> MCF, Université Marie et Louis Pasteur \> Codirectrice de thèse\\
\end{tabbing} 279 281 \end{tabbing}
\end{flushleft} 280 282 \end{flushleft}
\end{center} 281 283 \end{center}
\end{titlepage} % Fin de page de titre 282 284 \end{titlepage} % Fin de page de titre
283 285
\restoregeometry 284 286 \restoregeometry
285 287
%%-------------------- 286 288 %%--------------------
%% The following line does nothing until 287 289 %% The following line does nothing until
%% the class option 'nofrontmatter' is given. 288 290 %% the class option 'nofrontmatter' is given.
%\frontmatter 289 291 %\frontmatter
290 292
%%-------------------- 291 293 %%--------------------
%% The following line permits to add a chapter for "acknowledgements" 292 294 %% The following line permits to add a chapter for "acknowledgements"
%% at the beginning of the document. This chapter has not a chapter 293 295 %% at the beginning of the document. This chapter has not a chapter
%% number (using the "star-ed" version of \chapter) to prevent it to 294 296 %% number (using the "star-ed" version of \chapter) to prevent it to
\babel@toc {french}{}\relax 1 1 \babel@toc {french}{}\relax
\contentsline {part}{I\hspace {1em}Contexte et Problématiques}{1}{part.1}% 2 2 \contentsline {part}{I\hspace {1em}Contexte et Problématiques}{1}{part.1}%
\contentsline {chapter}{\numberline {1}Introduction}{3}{chapter.1}% 3 3 \contentsline {chapter}{\numberline {1}Introduction}{3}{chapter.1}%
\contentsline {section}{\numberline {1.1}Contributions Principales}{4}{section.1.1}% 4 4 \contentsline {section}{\numberline {1.1}Contributions Principales}{4}{section.1.1}%
\contentsline {section}{\numberline {1.2}Plan de la thèse}{5}{section.1.2}% 5 5 \contentsline {section}{\numberline {1.2}Plan de la thèse}{5}{section.1.2}%
\contentsline {part}{II\hspace {1em}État de l'art}{7}{part.2}% 6 6 \contentsline {part}{II\hspace {1em}État de l'art}{7}{part.2}%
\contentsline {chapter}{\numberline {2}Contexte}{9}{chapter.2}% 7 7 \contentsline {chapter}{\numberline {2}Contexte}{9}{chapter.2}%
\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{9}{section.2.1}% 8 8 \contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{9}{section.2.1}%
\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{9}{subsection.2.1.1}% 9 9 \contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{9}{subsection.2.1.1}%
\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{10}{subsection.2.1.2}% 10 10 \contentsline {subsection}{\numberline {2.1.2}Les EIAH}{10}{subsection.2.1.2}%
\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{11}{subsection.2.1.3}% 11 11 \contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{11}{subsection.2.1.3}%
\contentsline {section}{\numberline {2.2}Le contexte technique}{12}{section.2.2}% 12 12 \contentsline {section}{\numberline {2.2}Le contexte technique}{12}{section.2.2}%
\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{12}{subsection.2.2.1}% 13 13 \contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{12}{subsection.2.2.1}%
\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{14}{subsubsection.2.2.1.1}% 14 14 \contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{14}{subsubsection.2.2.1.1}%
\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{14}{subsubsection.2.2.1.2}% 15 15 \contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{14}{subsubsection.2.2.1.2}%
\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{14}{subsubsection.2.2.1.3}% 16 16 \contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{14}{subsubsection.2.2.1.3}%
\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{15}{subsubsection.2.2.1.4}% 17 17 \contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{15}{subsubsection.2.2.1.4}%
\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{16}{subsubsection.2.2.1.5}% 18 18 \contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{16}{subsubsection.2.2.1.5}%
\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{17}{subsection.2.2.2}% 19 19 \contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{17}{subsection.2.2.2}%
\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}% 20 20 \contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}%
\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}% 21 21 \contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}%
\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}% 22 22 \contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}%
\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}% 23 23 \contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}%
\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}% 24 24 \contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}%
\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}% 25 25 \contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}%
\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{21}{subsubsection.2.2.3.6}% 26 26 \contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{21}{subsubsection.2.2.3.6}%
\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{21}{subsubsection.2.2.3.7}% 27 27 \contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{21}{subsubsection.2.2.3.7}%
\contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}% 28 28 \contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}%
\contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}% 29 29 \contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}%
\contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}% 30 30 \contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}%
\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}% 31 31 \contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}%
\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}% 32 32 \contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}%
\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}% 33 33 \contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}%
\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}% 34 34 \contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}%
\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}% 35 35 \contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}%
\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}% 36 36 \contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}%
\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}% 37 37 \contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}%
\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{36}{section.4.7}% 38 38 \contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}%
\contentsline {part}{III\hspace {1em}Contributions}{39}{part.3}% 39 39 \contentsline {part}{III\hspace {1em}Contributions}{39}{part.3}%
\contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}% 40 40 \contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}%
\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}% 41 41 \contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}%
\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}% 42 42 \contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}%
\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}% 43 43 \contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}%
\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}% 44 44 \contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}%
\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}% 45 45 \contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}%
\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}% 46 46 \contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}%
\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}% 47 47 \contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}%
\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}% 48 48 \contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}%
\contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}% 49 49 \contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}%
\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}% 50 50 \contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}%
\contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}% 51 51 \contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}%
\contentsline {subsection}{\numberline {6.2.1}Algorithme Proposé}{53}{subsection.6.2.1}% 52 52 \contentsline {subsection}{\numberline {6.2.1}Algorithme Proposé}{53}{subsection.6.2.1}%
\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}% 53 53 \contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}%
\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}% 54 54 \contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}%
\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}% 55 55 \contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}%
\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}% 56 56 \contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}%
\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}% 57 57 \contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}%
\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}% 58 58 \contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}%
\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}% 59 59 \contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}%
\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}% 60 60 \contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}%
\contentsline {subsection}{\numberline {6.3.1}Algorithme Proposé}{64}{subsection.6.3.1}% 61 61 \contentsline {subsection}{\numberline {6.3.1}Algorithme Proposé}{64}{subsection.6.3.1}%
\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}% 62 62 \contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes suivis par ESCBR-SMA}{65}{subsubsection.6.3.1.1}%
\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}% 63 63 \contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}%
\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}% 64 64 \contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}%
\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}% 65 65 \contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}%
\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}% 66 66 \contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}%
\contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}% 67 67 \contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}%
\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}% 68 68 \contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}%
\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}% 69 69 \contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}%
\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}% 70 70 \contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}%
\contentsline {subsection}{\numberline {7.2.1}Algorithme Proposé}{74}{subsection.7.2.1}% 71 71 \contentsline {subsection}{\numberline {7.2.1}Algorithme Proposé}{74}{subsection.7.2.1}%
\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}% 72 72 \contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}%
\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusion}{81}{subsection.7.2.3}% 73 73 \contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusion}{81}{subsection.7.2.3}%
\contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}% 74 74 \contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}%
\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}% 75 75 \contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}%
\contentsline {subsection}{\numberline {7.3.2}Algorithme Proposé}{86}{subsection.7.3.2}% 76 76 \contentsline {subsection}{\numberline {7.3.2}Algorithme Proposé}{86}{subsection.7.3.2}%
\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}% 77 77 \contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}%
\contentsline {subsubsection}{\numberline {7.3.3.1}Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}{88}{subsubsection.7.3.3.1}% 78 78 \contentsline {subsubsection}{\numberline {7.3.3.1}Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}{88}{subsubsection.7.3.3.1}%
\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{89}{subsubsection.7.3.3.2}% 79 79 \contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{89}{subsubsection.7.3.3.2}%
\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'étudiants réels}{91}{subsubsection.7.3.3.3}% 80 80 \contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'apprenants réels}{91}{subsubsection.7.3.3.3}%
\contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}% 81 81 \contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}%
\contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}% 82 82 \contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}%
\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}% 83 83 \contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}%
\contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}% 84 84 \contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}%
\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}% 85 85 \contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}%
\contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}% 86 86 \contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}%
\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}% 87 87 \contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}%
\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec un jeu de données d'étudiants réels (TS avec Hawkes)}{98}{subsubsection.7.4.2.1}% 88
\contentsline {subsubsection}{\numberline {7.4.2.2}Mesures de performances}{100}{subsubsection.7.4.2.2}% 89
\contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}% 90 88 \contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}%
\contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}% 91 89 \contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}%
\contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}% 92 90 \contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}%
\contentsline {section}{\numberline {8.2}Perspectives}{105}{section.8.2}% 93 91 \contentsline {section}{\numberline {8.2}Perspectives}{105}{section.8.2}%
\contentsline {chapter}{\numberline {9}Publications}{107}{chapter.9}% 94 92 \contentsline {chapter}{\numberline {9}Publications}{107}{chapter.9}%
\contentsline {section}{\numberline {9.1}Publications liées au sujet de thèse}{107}{section.9.1}% 95 93 \contentsline {section}{\numberline {9.1}Publications liées au sujet de thèse}{107}{section.9.1}%
\contentsline {section}{\numberline {9.2}Autres publications}{108}{section.9.2}% 96 94 \contentsline {section}{\numberline {9.2}Autres publications}{108}{section.9.2}%
97 95
manuscrit.pdf View file @ 4b1afa3

No preview for this file type