Skip to content

AntoineFONDEUR/Neural-Network

Repository files navigation

Neural-Network

Le code implémente les forwards et back propagation d'un résaeu de neurone avec des couches FC (pas de convolutions, résidus...).

Un batch norm est cependant intégré pour chaque couche.

L'exemple fourni fait tourner le programme sur le dataset de MNIST pour reconnaître des 0 et 1.

Sont recodés: une librairie pour le calcul matriciel et une librairie pour charger les datasets.

On voit dans le fichier plot la convergence de la fonction coût avec différents set d'hyperparamètres. Le nom des fichiers respecte le format: learning_rate - epochs - batch_size - coef_de_regularisation_l2.

Lien avec les échecs : le but était de faire apprendre au réseau la fonction d'évalutation de l'engine Stockfish pour pouvoir trouver des coups d' "intuition parfaite". Mais il faut pour cela introduire des couches de convolutions que je n'ai ici pas implémenté.

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published