mirror of
https://github.com/augustin64/projet-tipe
synced 2025-01-24 07:36:24 +01:00
Merge branch 'julienChemillier:main' into main
This commit is contained in:
commit
06fcf06906
@ -58,7 +58,7 @@ void train(int batches, int couches, int neurons, char* recovery, char* image_fi
|
|||||||
|
|
||||||
//int* repartition = malloc(sizeof(int)*couches);
|
//int* repartition = malloc(sizeof(int)*couches);
|
||||||
int nb_neurones_der = 10;
|
int nb_neurones_der = 10;
|
||||||
int repartition[4] = {784, 16, 16, nb_neurones_der};
|
int repartition[3] = {784, 32, nb_neurones_der};
|
||||||
|
|
||||||
float* sortie = malloc(sizeof(float)*nb_neurones_der);
|
float* sortie = malloc(sizeof(float)*nb_neurones_der);
|
||||||
int* sortie_voulue;
|
int* sortie_voulue;
|
||||||
@ -99,6 +99,7 @@ void train(int batches, int couches, int neurons, char* recovery, char* image_fi
|
|||||||
ecrire_image_dans_reseau(images[j], reseau, height, width);
|
ecrire_image_dans_reseau(images[j], reseau, height, width);
|
||||||
sortie_voulue = creation_de_la_sortie_voulue(reseau, labels[j]);
|
sortie_voulue = creation_de_la_sortie_voulue(reseau, labels[j]);
|
||||||
forward_propagation(reseau);
|
forward_propagation(reseau);
|
||||||
|
backward_propagation(reseau, sortie_voulue);
|
||||||
|
|
||||||
for (int k=0; k < nb_neurones_der; k++) {
|
for (int k=0; k < nb_neurones_der; k++) {
|
||||||
sortie[k] = der_couche->neurones[k]->z;
|
sortie[k] = der_couche->neurones[k]->z;
|
||||||
@ -106,13 +107,10 @@ void train(int batches, int couches, int neurons, char* recovery, char* image_fi
|
|||||||
if (indice_max(sortie, nb_neurones_der) == labels[j]) {
|
if (indice_max(sortie, nb_neurones_der) == labels[j]) {
|
||||||
accuracy += 1. / (float)nb_images;
|
accuracy += 1. / (float)nb_images;
|
||||||
}
|
}
|
||||||
|
free(sortie_voulue);
|
||||||
backward_propagation(reseau, sortie_voulue);
|
|
||||||
|
|
||||||
}
|
}
|
||||||
printf("\rBatch [%d/%d]\tImage [%d/%d]\tAccuracy: %0.1f%%\n",i, batches, nb_images, nb_images, accuracy*100);
|
|
||||||
|
|
||||||
modification_du_reseau_neuronal(reseau, nb_images);
|
modification_du_reseau_neuronal(reseau, nb_images);
|
||||||
|
printf("\rBatch [%d/%d]\tImage [%d/%d]\tAccuracy: %0.1f%%\n",i, batches, nb_images, nb_images, accuracy*100);
|
||||||
ecrire_reseau(out, reseau);
|
ecrire_reseau(out, reseau);
|
||||||
}
|
}
|
||||||
suppression_du_reseau_neuronal(reseau);
|
suppression_du_reseau_neuronal(reseau);
|
||||||
@ -217,8 +215,8 @@ int main(int argc, char* argv[]) {
|
|||||||
exit(1);
|
exit(1);
|
||||||
}
|
}
|
||||||
if (! strcmp(argv[1], "train")) {
|
if (! strcmp(argv[1], "train")) {
|
||||||
int batches = 5;
|
int batches = 100;
|
||||||
int couches = 4;
|
int couches = 3;
|
||||||
int neurons = 784;
|
int neurons = 784;
|
||||||
char* images = NULL;
|
char* images = NULL;
|
||||||
char* labels = NULL;
|
char* labels = NULL;
|
||||||
|
@ -10,12 +10,13 @@
|
|||||||
|
|
||||||
// Définit le taux d'apprentissage du réseau neuronal, donc la rapidité d'adaptation du modèle (compris entre 0 et 1)
|
// Définit le taux d'apprentissage du réseau neuronal, donc la rapidité d'adaptation du modèle (compris entre 0 et 1)
|
||||||
//Cette valeur peut évoluer au fur et à mesure des époques (linéaire c'est mieux)
|
//Cette valeur peut évoluer au fur et à mesure des époques (linéaire c'est mieux)
|
||||||
#define TAUX_APPRENTISSAGE 0.015
|
#define TAUX_APPRENTISSAGE 2.
|
||||||
//Retourne un nombre aléatoire entre 0 et 1
|
//Retourne un nombre aléatoire entre 0 et 1
|
||||||
#define RAND_DOUBLE() ((double)rand())/((double)RAND_MAX)
|
#define RAND_DOUBLE() ((double)rand())/((double)RAND_MAX)
|
||||||
//Coefficient leaking ReLU
|
//Coefficient leaking ReLU
|
||||||
#define COEFF_LEAKY_RELU 0.2
|
#define COEFF_LEAKY_RELU 0.2
|
||||||
#define MAX_RESEAU 100000
|
#define MAX_RESEAU 100000
|
||||||
|
#define INT_MIN -2147483648
|
||||||
|
|
||||||
#define PRINT_POIDS false
|
#define PRINT_POIDS false
|
||||||
#define PRINT_BIAIS false
|
#define PRINT_BIAIS false
|
||||||
@ -65,6 +66,7 @@ void creation_du_reseau_neuronal(Reseau* reseau, int* neurones_par_couche, int n
|
|||||||
if (i != reseau->nb_couches-1) { // On exclut la dernière couche dont les neurones ne contiennent pas de poids sortants
|
if (i != reseau->nb_couches-1) { // On exclut la dernière couche dont les neurones ne contiennent pas de poids sortants
|
||||||
couche->neurones[j]->poids_sortants = (float*)malloc(sizeof(float)*neurones_par_couche[i+1]);// Création des poids sortants du neurone
|
couche->neurones[j]->poids_sortants = (float*)malloc(sizeof(float)*neurones_par_couche[i+1]);// Création des poids sortants du neurone
|
||||||
couche->neurones[j]->d_poids_sortants = (float*)malloc(sizeof(float)*neurones_par_couche[i+1]);
|
couche->neurones[j]->d_poids_sortants = (float*)malloc(sizeof(float)*neurones_par_couche[i+1]);
|
||||||
|
couche->neurones[j]->last_d_poids_sortants = (float*)malloc(sizeof(float)*neurones_par_couche[i+1]);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -98,8 +100,12 @@ void forward_propagation(Reseau* reseau) {
|
|||||||
trouve dans la dernière couche */
|
trouve dans la dernière couche */
|
||||||
Couche* couche; // Couche actuelle
|
Couche* couche; // Couche actuelle
|
||||||
Couche* pre_couche; // Couche précédente
|
Couche* pre_couche; // Couche précédente
|
||||||
|
float sum;
|
||||||
|
float max_z;
|
||||||
|
|
||||||
for (int i=1; i < reseau->nb_couches; i++) { // La première couche contient déjà des valeurs
|
for (int i=1; i < reseau->nb_couches; i++) { // La première couche contient déjà des valeurs
|
||||||
|
sum = 0;
|
||||||
|
max_z = INT_MIN;
|
||||||
couche = reseau->couches[i];
|
couche = reseau->couches[i];
|
||||||
pre_couche = reseau->couches[i-1];
|
pre_couche = reseau->couches[i-1];
|
||||||
|
|
||||||
@ -113,10 +119,19 @@ void forward_propagation(Reseau* reseau) {
|
|||||||
if (i < reseau->nb_couches-1) { // Pour toutes les couches sauf la dernière on utilise la fonction leaky_ReLU (a*z si z<0, z sinon)
|
if (i < reseau->nb_couches-1) { // Pour toutes les couches sauf la dernière on utilise la fonction leaky_ReLU (a*z si z<0, z sinon)
|
||||||
couche->neurones[j]->z = leaky_ReLU(couche->neurones[j]->z);
|
couche->neurones[j]->z = leaky_ReLU(couche->neurones[j]->z);
|
||||||
} else { // Pour la dernière couche on utilise la fonction sigmoid permettant d'obtenir un résultat entre 0 et 1 à savoir une probabilité
|
} else { // Pour la dernière couche on utilise la fonction sigmoid permettant d'obtenir un résultat entre 0 et 1 à savoir une probabilité
|
||||||
couche->neurones[j]->z = sigmoid(couche->neurones[j]->z);
|
max_z = max(max_z, couche->neurones[j]->z);
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
int last_layer = reseau->nb_couches-1;
|
||||||
|
int size_last_layer = reseau->couches[last_layer]->nb_neurones;
|
||||||
|
for (int j=0; j < size_last_layer; j++) {
|
||||||
|
reseau->couches[last_layer]->neurones[j]->z = exp(reseau->couches[last_layer]->neurones[j]->z - max_z);
|
||||||
|
sum += reseau->couches[last_layer]->neurones[j]->z;
|
||||||
|
}
|
||||||
|
for (int j=0; j < size_last_layer; j++) {
|
||||||
|
reseau->couches[last_layer]->neurones[j]->z = reseau->couches[last_layer]->neurones[j]->z / sum;
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
@ -144,15 +159,20 @@ void backward_propagation(Reseau* reseau, int* sortie_voulue) {
|
|||||||
Neurone* neurone;
|
Neurone* neurone;
|
||||||
Neurone* neurone2;
|
Neurone* neurone2;
|
||||||
float changes;
|
float changes;
|
||||||
|
float tmp;
|
||||||
|
|
||||||
int i = reseau->nb_couches-2;
|
int i = reseau->nb_couches-2;
|
||||||
// On commence par parcourir tous les neurones de la couche finale
|
// On commence par parcourir tous les neurones de la couche finale
|
||||||
for (int j=0; j < reseau->couches[i+1]->nb_neurones; j++) {
|
for (int j=0; j < reseau->couches[i+1]->nb_neurones; j++) {
|
||||||
neurone = reseau->couches[i+1]->neurones[j];
|
neurone = reseau->couches[i+1]->neurones[j];
|
||||||
changes = sigmoid_derivee(neurone->z)*2*(neurone->z - sortie_voulue[j]);
|
tmp = (sortie_voulue[j]==1) ? neurone->z - 1 : neurone->z;
|
||||||
for (int k=0; k < reseau->couches[i]->nb_neurones; k++) {
|
for (int k=0; k < reseau->couches[i]->nb_neurones; k++) {
|
||||||
reseau->couches[i]->neurones[k]->d_poids_sortants[j] += reseau->couches[i]->neurones[k]->poids_sortants[j]*changes;
|
reseau->couches[i]->neurones[k]->d_poids_sortants[j] += reseau->couches[i]->neurones[k]->z*tmp;
|
||||||
|
reseau->couches[i]->neurones[k]->last_d_poids_sortants[j] = reseau->couches[i]->neurones[k]->z*tmp;
|
||||||
|
//if (k==0)printf("\n %f ->%f", reseau->couches[i+1]->neurones[j]->z*tmp, tmp);
|
||||||
}
|
}
|
||||||
|
neurone->d_biais += tmp;
|
||||||
|
//printf("\n%f", neurone->d_biais);
|
||||||
}
|
}
|
||||||
i--;
|
i--;
|
||||||
for (; i >= 0; i--) {
|
for (; i >= 0; i--) {
|
||||||
@ -160,13 +180,15 @@ void backward_propagation(Reseau* reseau, int* sortie_voulue) {
|
|||||||
changes = 0;
|
changes = 0;
|
||||||
for (int k=0; k < reseau->couches[i+2]->nb_neurones; k++) {
|
for (int k=0; k < reseau->couches[i+2]->nb_neurones; k++) {
|
||||||
//printf("Couche %d Neurone %d Poids %f\n", i+1, j, reseau->couches[i+1]->neurones[j]->poids_sortants[k]);
|
//printf("Couche %d Neurone %d Poids %f\n", i+1, j, reseau->couches[i+1]->neurones[j]->poids_sortants[k]);
|
||||||
changes += (reseau->couches[i+1]->neurones[j]->poids_sortants[k]*reseau->couches[i+1]->neurones[j]->d_poids_sortants[k])/reseau->couches[i+1]->nb_neurones;
|
changes += (reseau->couches[i+1]->neurones[j]->poids_sortants[k]*reseau->couches[i+1]->neurones[j]->last_d_poids_sortants[k])/reseau->couches[i+1]->nb_neurones;
|
||||||
}
|
}
|
||||||
changes = changes*leaky_ReLU_derivee(reseau->couches[i+1]->neurones[j]->z);
|
changes = changes*leaky_ReLU_derivee(reseau->couches[i+1]->neurones[j]->z);
|
||||||
reseau->couches[i+1]->neurones[j]->d_biais += changes;
|
reseau->couches[i+1]->neurones[j]->d_biais += changes;
|
||||||
|
reseau->couches[i+1]->neurones[j]->last_d_biais = changes;
|
||||||
for (int l=0; l < reseau->couches[i]->nb_neurones; l++){
|
for (int l=0; l < reseau->couches[i]->nb_neurones; l++){
|
||||||
//printf("%f\n", changes);
|
//printf("%f\n", changes);
|
||||||
reseau->couches[i]->neurones[l]->d_poids_sortants[j] += reseau->couches[i]->neurones[l]->poids_sortants[j]*changes;
|
reseau->couches[i]->neurones[l]->d_poids_sortants[j] += reseau->couches[i]->neurones[l]->poids_sortants[j]*changes;
|
||||||
|
reseau->couches[i]->neurones[l]->last_d_poids_sortants[j] = reseau->couches[i]->neurones[l]->poids_sortants[j]*changes;
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -180,13 +202,12 @@ void modification_du_reseau_neuronal(Reseau* reseau, uint32_t nb_modifs) {
|
|||||||
du nombre de couches et de la liste du nombre de neurone par couche */
|
du nombre de couches et de la liste du nombre de neurone par couche */
|
||||||
Neurone* neurone;
|
Neurone* neurone;
|
||||||
|
|
||||||
for (int i=0; i < reseau->nb_couches-1; i++) { // on exclut la dernière couche
|
for (int i=0; i < reseau->nb_couches; i++) { // on exclut la dernière couche
|
||||||
for (int j=0; j < reseau->couches[i]->nb_neurones; j++) {
|
for (int j=0; j < reseau->couches[i]->nb_neurones; j++) {
|
||||||
neurone = reseau->couches[i]->neurones[j];
|
neurone = reseau->couches[i]->neurones[j];
|
||||||
if (neurone->biais != 0 && PRINT_BIAIS)
|
if (neurone->biais != 0 && PRINT_BIAIS)
|
||||||
printf("C %d\tN %d\tb: %f \tDb: %f\n", i, j, neurone->biais, (TAUX_APPRENTISSAGE/nb_modifs) * neurone->d_biais);
|
printf("C %d\tN %d\tb: %f \tDb: %f\n", i, j, neurone->biais, (TAUX_APPRENTISSAGE/nb_modifs) * neurone->d_biais);
|
||||||
neurone->biais -= (TAUX_APPRENTISSAGE/nb_modifs) * neurone->d_biais; // On modifie le biais du neurone à partir des données de la propagation en arrière
|
neurone->biais -= (TAUX_APPRENTISSAGE/nb_modifs) * neurone->d_biais; // On modifie le biais du neurone à partir des données de la propagation en arrière
|
||||||
|
|
||||||
neurone->d_biais = 0;
|
neurone->d_biais = 0;
|
||||||
|
|
||||||
if (neurone->biais > MAX_RESEAU)
|
if (neurone->biais > MAX_RESEAU)
|
||||||
@ -194,16 +215,22 @@ void modification_du_reseau_neuronal(Reseau* reseau, uint32_t nb_modifs) {
|
|||||||
else if (neurone->biais < -MAX_RESEAU)
|
else if (neurone->biais < -MAX_RESEAU)
|
||||||
neurone->biais = -MAX_RESEAU;
|
neurone->biais = -MAX_RESEAU;
|
||||||
|
|
||||||
|
if (i!=reseau->nb_couches-1) {
|
||||||
for (int k=0; k < reseau->couches[i+1]->nb_neurones; k++) {
|
for (int k=0; k < reseau->couches[i+1]->nb_neurones; k++) {
|
||||||
if (neurone->poids_sortants[k] != 0 && PRINT_POIDS)
|
if (neurone->poids_sortants[k] != 0 && PRINT_POIDS)
|
||||||
printf("C %d\tN %d -> %d\tp: %f \tDp: %f\n", i, j, k, neurone->poids_sortants[k], (TAUX_APPRENTISSAGE/nb_modifs) * neurone->d_poids_sortants[k]);
|
printf("C %d\tN %d -> %d\tp: %f \tDp: %f\n", i, j, k, neurone->poids_sortants[k], (TAUX_APPRENTISSAGE/nb_modifs) * neurone->d_poids_sortants[k]);
|
||||||
neurone->poids_sortants[k] -= (TAUX_APPRENTISSAGE/nb_modifs) * neurone->d_poids_sortants[k]; // On modifie le poids du neurone à partir des données de la propagation en arrière
|
neurone->poids_sortants[k] -= (TAUX_APPRENTISSAGE/nb_modifs) * neurone->d_poids_sortants[k]; // On modifie le poids du neurone à partir des données de la propagation en arrière
|
||||||
neurone->d_poids_sortants[k] = 0;
|
neurone->d_poids_sortants[k] = 0;
|
||||||
|
|
||||||
if (neurone->poids_sortants[k] > MAX_RESEAU)
|
if (neurone->poids_sortants[k] > MAX_RESEAU) {
|
||||||
neurone->poids_sortants[k] = MAX_RESEAU;
|
neurone->poids_sortants[k] = MAX_RESEAU;
|
||||||
else if (neurone->poids_sortants[k] < -MAX_RESEAU)
|
printf("Erreur, max du réseau atteint");
|
||||||
|
}
|
||||||
|
else if (neurone->poids_sortants[k] < -MAX_RESEAU) {
|
||||||
neurone->poids_sortants[k] = -MAX_RESEAU;
|
neurone->poids_sortants[k] = -MAX_RESEAU;
|
||||||
|
printf("Erreur, min du réseau atteint");
|
||||||
|
}
|
||||||
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -213,7 +240,7 @@ void modification_du_reseau_neuronal(Reseau* reseau, uint32_t nb_modifs) {
|
|||||||
|
|
||||||
|
|
||||||
void initialisation_du_reseau_neuronal(Reseau* reseau) {
|
void initialisation_du_reseau_neuronal(Reseau* reseau) {
|
||||||
/* Initialise les variables du réseau neuronal (activation, biais, poids, ...)
|
/* Initialise les variables du réseau neuronal (biais, poids, ...)
|
||||||
en suivant de la méthode de Xavier ...... à partir du nombre de couches et de la liste du nombre de neurone par couche */
|
en suivant de la méthode de Xavier ...... à partir du nombre de couches et de la liste du nombre de neurone par couche */
|
||||||
Neurone* neurone;
|
Neurone* neurone;
|
||||||
double borne_superieure;
|
double borne_superieure;
|
||||||
@ -230,13 +257,15 @@ void initialisation_du_reseau_neuronal(Reseau* reseau) {
|
|||||||
borne_inferieure = -borne_superieure;
|
borne_inferieure = -borne_superieure;
|
||||||
ecart_bornes = borne_superieure - borne_inferieure;
|
ecart_bornes = borne_superieure - borne_inferieure;
|
||||||
|
|
||||||
neurone->activation = borne_inferieure + RAND_DOUBLE()*ecart_bornes;
|
|
||||||
|
|
||||||
for (int k=0; k < reseau->couches[i+1]->nb_neurones; k++) { // Pour chaque neurone de la couche suivante auquel le neurone est relié
|
for (int k=0; k < reseau->couches[i+1]->nb_neurones; k++) { // Pour chaque neurone de la couche suivante auquel le neurone est relié
|
||||||
neurone->poids_sortants[k] = borne_inferieure + RAND_DOUBLE()*ecart_bornes; // Initialisation des poids sortants aléatoirement
|
neurone->poids_sortants[k] = borne_inferieure + RAND_DOUBLE()*ecart_bornes;
|
||||||
|
neurone->d_poids_sortants[k] = 0;
|
||||||
|
neurone->last_d_poids_sortants[k] = 0;
|
||||||
}
|
}
|
||||||
if (i > 0) {// Pour tous les neurones n'étant pas dans la première couche
|
if (i > 0) {// Pour tous les neurones n'étant pas dans la première couche
|
||||||
neurone->biais = borne_inferieure + RAND_DOUBLE()*ecart_bornes; // On initialise le biais aléatoirement
|
neurone->biais = borne_inferieure + RAND_DOUBLE()*ecart_bornes;
|
||||||
|
neurone->d_biais = 0;
|
||||||
|
neurone->last_d_biais = 0;
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@ -246,9 +275,9 @@ void initialisation_du_reseau_neuronal(Reseau* reseau) {
|
|||||||
|
|
||||||
for (int j=0; j < reseau->couches[reseau->nb_couches-1]->nb_neurones; j++) {// Intialisation de la dernière couche exclue ci-dessus
|
for (int j=0; j < reseau->couches[reseau->nb_couches-1]->nb_neurones; j++) {// Intialisation de la dernière couche exclue ci-dessus
|
||||||
neurone = reseau->couches[reseau->nb_couches-1]->neurones[j];
|
neurone = reseau->couches[reseau->nb_couches-1]->neurones[j];
|
||||||
//Il y a pas de biais et activation variables pour la dernière couche
|
neurone->biais = borne_inferieure + RAND_DOUBLE()*ecart_bornes;
|
||||||
neurone->activation = 1;
|
neurone->d_biais = 0;
|
||||||
neurone->biais = 0;
|
neurone->last_d_biais = 0;
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -1,5 +1,6 @@
|
|||||||
#include <stdio.h>
|
#include <stdio.h>
|
||||||
#include <stdlib.h>
|
#include <stdlib.h>
|
||||||
|
#include <stdint.h>
|
||||||
#include <string.h>
|
#include <string.h>
|
||||||
#include <math.h>
|
#include <math.h>
|
||||||
#include <time.h>
|
#include <time.h>
|
||||||
|
@ -17,16 +17,15 @@ Neurone* lire_neurone(uint32_t nb_poids_sortants, FILE *ptr) {
|
|||||||
fread(&activation, sizeof(float), 1, ptr);
|
fread(&activation, sizeof(float), 1, ptr);
|
||||||
fread(&biais, sizeof(float), 1, ptr);
|
fread(&biais, sizeof(float), 1, ptr);
|
||||||
|
|
||||||
neurone->activation = activation;
|
|
||||||
neurone->biais = biais;
|
neurone->biais = biais;
|
||||||
|
|
||||||
neurone->z = 0.0;
|
neurone->z = 0.0;
|
||||||
neurone->d_activation = 0.0;
|
neurone->last_d_biais = 0.0;
|
||||||
neurone->d_biais = 0.0;
|
neurone->d_biais = 0.0;
|
||||||
neurone->d_z = 0.0;
|
|
||||||
|
|
||||||
float* poids_sortants = malloc(sizeof(float)*nb_poids_sortants);
|
float* poids_sortants = malloc(sizeof(float)*nb_poids_sortants);
|
||||||
|
|
||||||
|
neurone->last_d_poids_sortants = malloc(sizeof(float)*nb_poids_sortants);
|
||||||
neurone->d_poids_sortants = malloc(sizeof(float)*nb_poids_sortants);
|
neurone->d_poids_sortants = malloc(sizeof(float)*nb_poids_sortants);
|
||||||
neurone->poids_sortants = poids_sortants;
|
neurone->poids_sortants = poids_sortants;
|
||||||
|
|
||||||
@ -34,6 +33,7 @@ Neurone* lire_neurone(uint32_t nb_poids_sortants, FILE *ptr) {
|
|||||||
fread(&tmp, sizeof(float), 1, ptr);
|
fread(&tmp, sizeof(float), 1, ptr);
|
||||||
neurone->poids_sortants[i] = tmp;
|
neurone->poids_sortants[i] = tmp;
|
||||||
neurone->d_poids_sortants[i] = 0.0;
|
neurone->d_poids_sortants[i] = 0.0;
|
||||||
|
neurone->last_d_poids_sortants[i] = 0.0;
|
||||||
}
|
}
|
||||||
|
|
||||||
return neurone;
|
return neurone;
|
||||||
@ -99,7 +99,6 @@ Reseau* lire_reseau(char* filename) {
|
|||||||
void ecrire_neurone(Neurone* neurone, int poids_sortants, FILE *ptr) {
|
void ecrire_neurone(Neurone* neurone, int poids_sortants, FILE *ptr) {
|
||||||
float buffer[poids_sortants+2];
|
float buffer[poids_sortants+2];
|
||||||
|
|
||||||
buffer[0] = neurone->activation;
|
|
||||||
buffer[1] = neurone->biais;
|
buffer[1] = neurone->biais;
|
||||||
for (int i=0; i < poids_sortants; i++) {
|
for (int i=0; i < poids_sortants; i++) {
|
||||||
buffer[i+2] = neurone->poids_sortants[i];
|
buffer[i+2] = neurone->poids_sortants[i];
|
||||||
|
@ -2,15 +2,14 @@
|
|||||||
#define DEF_NEURON_H
|
#define DEF_NEURON_H
|
||||||
|
|
||||||
typedef struct Neurone{
|
typedef struct Neurone{
|
||||||
float activation; // Caractérise l'activation du neurone
|
|
||||||
float* poids_sortants; // Liste de tous les poids des arêtes sortants du neurone
|
float* poids_sortants; // Liste de tous les poids des arêtes sortants du neurone
|
||||||
float biais; // Caractérise le biais du neurone
|
float biais; // Caractérise le biais du neurone
|
||||||
float z; // Sauvegarde des calculs faits sur le neurone (programmation dynamique)
|
float z; // Sauvegarde des calculs faits sur le neurone (programmation dynamique)
|
||||||
|
|
||||||
float d_activation; // Changement d'activation lors de la backpropagation
|
|
||||||
float *d_poids_sortants; // Changement des poids sortants lors de la backpropagation
|
float *d_poids_sortants; // Changement des poids sortants lors de la backpropagation
|
||||||
|
float *last_d_poids_sortants; // Dernier changement de d_poid_sortants
|
||||||
float d_biais; // Changement du biais lors de la backpropagation
|
float d_biais; // Changement du biais lors de la backpropagation
|
||||||
float d_z; // Quantité de changements générals à effectuer lors de la backpropagation
|
float last_d_biais; // Dernier changement de d_biais
|
||||||
} Neurone;
|
} Neurone;
|
||||||
|
|
||||||
|
|
||||||
|
@ -91,19 +91,19 @@ void creer_reseau(char* filename, int sortie) {
|
|||||||
couche->neurones[j] = malloc(sizeof(Neurone));
|
couche->neurones[j] = malloc(sizeof(Neurone));
|
||||||
neurone = couche->neurones[j];
|
neurone = couche->neurones[j];
|
||||||
|
|
||||||
neurone->activation = 0.;
|
|
||||||
neurone->biais = 0.;
|
neurone->biais = 0.;
|
||||||
neurone->z = 0.;
|
neurone->z = 0.;
|
||||||
|
|
||||||
neurone->d_activation = 0.;
|
|
||||||
neurone->d_biais = 0.;
|
neurone->d_biais = 0.;
|
||||||
neurone->d_z = 0.;
|
neurone->last_d_biais = 0.;
|
||||||
|
|
||||||
neurone->poids_sortants = malloc(sizeof(float)*neurones_par_couche[i+1]);
|
neurone->poids_sortants = malloc(sizeof(float)*neurones_par_couche[i+1]);
|
||||||
neurone->d_poids_sortants = malloc(sizeof(float)*neurones_par_couche[i+1]);
|
neurone->d_poids_sortants = malloc(sizeof(float)*neurones_par_couche[i+1]);
|
||||||
|
neurone->last_d_poids_sortants = malloc(sizeof(float)*neurones_par_couche[i+1]);
|
||||||
for (int k=0; k < neurones_par_couche[i+1]; k++) {
|
for (int k=0; k < neurones_par_couche[i+1]; k++) {
|
||||||
neurone->poids_sortants[k] = 0.;
|
neurone->poids_sortants[k] = 0.;
|
||||||
neurone->d_poids_sortants[k] = 0.;
|
neurone->d_poids_sortants[k] = 0.;
|
||||||
|
neurone->last_d_poids_sortants[k] = 0.;
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
@ -10,17 +10,17 @@ Neurone* creer_neurone(int nb_sortants) {
|
|||||||
Neurone* neurone = malloc(2*sizeof(float*)+6*sizeof(float));
|
Neurone* neurone = malloc(2*sizeof(float*)+6*sizeof(float));
|
||||||
neurone->poids_sortants = malloc(sizeof(float)*nb_sortants);
|
neurone->poids_sortants = malloc(sizeof(float)*nb_sortants);
|
||||||
neurone->d_poids_sortants = malloc(sizeof(float)*nb_sortants);
|
neurone->d_poids_sortants = malloc(sizeof(float)*nb_sortants);
|
||||||
|
neurone->last_d_poids_sortants = malloc(sizeof(float)*nb_sortants);
|
||||||
|
|
||||||
for (int i=0; i < nb_sortants; i++) {
|
for (int i=0; i < nb_sortants; i++) {
|
||||||
neurone->poids_sortants[i] = 0.5;
|
neurone->poids_sortants[i] = 0.5;
|
||||||
neurone->d_poids_sortants[i] = 0.0;
|
neurone->d_poids_sortants[i] = 0.0;
|
||||||
|
neurone->last_d_poids_sortants[i] = 0.0;
|
||||||
}
|
}
|
||||||
neurone->activation = 0.0;
|
|
||||||
neurone->biais = 0.0;
|
|
||||||
neurone->z = 0.0;
|
neurone->z = 0.0;
|
||||||
neurone->d_activation = 0.0;
|
neurone->biais = 0.0;
|
||||||
neurone->d_biais = 0.0;
|
neurone->d_biais = 0.0;
|
||||||
neurone->d_z = 0.0;
|
neurone->last_d_biais = 0.0;
|
||||||
|
|
||||||
return neurone;
|
return neurone;
|
||||||
}
|
}
|
||||||
|
Loading…
Reference in New Issue
Block a user