tipe/COMPTE_RENDU.md
2022-04-25 19:43:35 +02:00

2.7 KiB

Compte rendu

22 Avril 2022 b30bedd

Le réseau minimise la fonction d'erreur (différence entre sortie voulue et obtenue).
Cela donne comme résultat une précision de 10.2% en moyenne soit à peine mieux qu'aléatoire.
Chaque image renvoie les mêmes poids sur la dernière couche.
Voici un tableau comparant la fréquence d'apparition de chaque chiffre et l'activation associée sur la dernière couche :

Chiffre Nombre d'occurences dans le set d'entraînement Activation du neurone sortant Rapport
0 23692 0.483112 49040
1 26968 0.508133 53072
2 23832 0.492748 48365
3 24524 0.536703 45693
4 23368 0.532142 43913
5 21684 0.501488 43239
6 23672 0.518371 45666
7 25060 0.499134 50206
8 23404 0.512515 45665
9 23796 0.556504 42759



25 Avril 2022 698e72f

Le réseau donne des probabilités dont la somme est de 1 (grâce à softmax).
Un problème d'overfitting (sur-ajustement) apparait, résultant à de mauvais résultats sur des nouvelles données.
Plus le réseau contient de couches, plus sa convergence vers des probabilités convenables est longue.
Voici un tableau comparant les exactitudes des différentes époques et les dimensions du réseau sur les 60 000 images (train) :

Dimensions Epoque 0 Epoque 1 Epoque 2 Epoque 3 Epoque 4 Epoque 5 Epoque 6 Epoque 7 Epoque 8 Epoque 9 Epoque 10 Epoque 11 Epoque 12 Epoque 13 Epoque 14 Epoque 15 Epoque 16 Epoque 17 Epoque 18 Epoque 19 Epoque 20 Epoque 1 nouveau dataset (t10k)
784x10 10.5% 15.4% 26.6% 38.5% 50.2% 55.3% 59.8% 63.0% 65.9% 68.1% 70.0% 71.5% 72.9% 74.0% 74.9% 75.8% 76.6% 77.3% 78.0% 78.5% 79.0% 80.0%
784x16x10 10.9% 14.7% 18.3% 21.9% 24.7% 26.9% 28.8% 30.2% 31.4% 32.5% 33.9% 35.1% 36.2% 37.2% 38.0% 38.7% 39.5% 40.1% 40.6% 41.1% 41.5% 42.8%
784x16x16x10 9.1% 9.5% 10.8% 12.9% 14.4% 15.4% 16.1% 16.6% 17.1% 17.6% 18.1% 18.6% 19.1% 19.6% 20.0% 20.4% 20.8% 21.2% 21.6% 21.9% 22.2% 23.0%
784x16x16x16x10 11.0% 11.0% 11.1% 11.2% 11.1% 11.2% 11.2% 11.2% 11.3% 11.6% 11.8% 12.3% 12.9% 13.5% 14.0% 14.5% 15.0% 15.3% 15.6% 15.9% 16.1% 16.1%