diff --git a/src/cnn/creation.c b/src/cnn/creation.c index bbbe2d1..112ce7b 100644 --- a/src/cnn/creation.c +++ b/src/cnn/creation.c @@ -58,7 +58,7 @@ Network* create_network_alexnet(float learning_rate, int dropout, int activation add_average_pooling(network, 3, 2, 0); add_dense_linearisation(network, 4096, activation); add_dense(network, 4096, activation); - add_dense(network, size_output, activation); + add_dense(network, size_output, SOFTMAX); return network; } @@ -144,6 +144,8 @@ void add_max_pooling(Network* network, int kernel_size, int stride, int padding) network->kernel[k_pos]->cnn = NULL; network->kernel[k_pos]->nn = NULL; + network->kernel[k_pos]->stride = stride; + network->kernel[k_pos]->padding = padding; network->kernel[k_pos]->activation = IDENTITY; // Ne contient pas de fonction d'activation network->kernel[k_pos]->linearisation = DOESNT_LINEARISE; network->kernel[k_pos]->pooling = MAX_POOLING; diff --git a/src/cnn/include/creation.h b/src/cnn/include/creation.h index f147449..1338736 100644 --- a/src/cnn/include/creation.h +++ b/src/cnn/include/creation.h @@ -18,7 +18,7 @@ Network* create_network_lenet5(float learning_rate, int dropout, int activation, * Renvoie un réseau suivante l'architecture AlexNet * C'est à dire une entrée de 3x227x227 et une sortie de taille 'size_output' */ -Network* create_network_alexnet(float learning_rate, int dropout, int activation, int initialisation, int size_output); + /* * Renvoie un réseau sans convolution, similaire à celui utilisé dans src/dense */