diff --git a/TP6/TP6_ex2_correc.ipynb b/TP6/TP6_ex2_correc.ipynb index e3609626971738a8807bad343b6e2275873777a9..0421a762a921e18f05733d993e77c6b09b04a7bb 100644 --- a/TP6/TP6_ex2_correc.ipynb +++ b/TP6/TP6_ex2_correc.ipynb @@ -102,7 +102,7 @@ "X_image=[]\n", "X_train=[]\n", "X_test=[]\n", - "dict_class_names={} # dictionnaires associant labels et noms des classes\n", + "dict_class_names={} # dictionnaire associant labels et noms des classes\n", "\n", "y=0 # numéro de classe\n", "\n", @@ -293,7 +293,7 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "Constatez que ce réseau convolutif présente de meilleures performance que le meilleur modèle de l'exercice 1 (si ce n'est pas le cas, vous n'avez pas eu de chance: relancez la cellule précédente qui continuera l'apprentissage pour 15 nouvelles époques). Le modèle présente sans doute un peu de surapprentissage: `accuracy` sur la base d'apprentissage est assez sensiblement supérieur à `val_accuracy` (sur la base test).\n", + "Constatez que ce réseau convolutif présente de meilleures performance que le meilleur modèle de l'exercice 1 (si ce n'est pas le cas, vous n'avez pas eu de chance: relancez la cellule précédente qui continuera l'apprentissage pour 10 nouvelles époques). Le modèle présente sans doute un peu de surapprentissage: `accuracy` sur la base d'apprentissage est assez sensiblement supérieur à `val_accuracy` (sur la base test).\n", "\n", "Vérifiez le rôle du _dropout_: commentez la ligne `model.add(Dropout(0.5))` dans ce qui précède, et relancez la construction (à partir de la cellule où figure `model = Sequential()`) puis l'apprentissage du réseau (attention: il ne suffit pas de relancer le `fit` car on continuerait alors l'apprentissage à partir des paramètres déjà estimés). Vous allez voir le réseau apprendre \"quasiment par coeur\" la base d'apprentissage (_\n", "`accuracy` à 0.98-0.99) mais une accuracy sur la base de test (`val_accuracy`)qui plafonne à 0.80-0.82. N'oubliez pas de revenir au réseau appris avec _dropout_ avant de continuer.\n", @@ -479,7 +479,7 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "La base d'apprentissage est formée de 1052 observations, celle de test de 263 observations. La sortie de la partie \"convolutive\" de VGG16 est constituée de blocs de $3\\times 4\\times 512$ valeurs (512 convolutions dans la dernière couche convolutive, qui sortent chacunes $3\\times 4$ valeurs pour nos entrées de taille $100\\times150$).\n", + "La base d'apprentissage est formée de 1052 observations, celle de test de 263 observations. La sortie de la partie \"convolutive\" de VGG16 est constituée de blocs de $3\\times 4\\times 512$ valeurs (512 convolutions dans la dernière couche convolutive, qui sortent chacune $3\\times 4$ valeurs pour nos entrées de taille $100\\times150$).\n", "\n", "Au cas où votre connexion (ou votre espace disque) ne vous permet pas de charger VGG16, ou si votre processeur n'est pas assez rapide, vous pouvez charger les features calculés pour vous, à ces liens ou sur Arche:\n", "- [features pour la base d'apprentissage](https://members.loria.fr/FSur/enseignement/apprauto/features_train.npy)\n",