diff --git a/TP4/TP4_ex1_sujet.ipynb b/TP4/TP4_ex1_sujet.ipynb
index eeaccd6e23848580d7a6b652bf9e31b484c4a379..14cd0f444d336bbc7be8c3a369455471a7a61160 100755
--- a/TP4/TP4_ex1_sujet.ipynb
+++ b/TP4/TP4_ex1_sujet.ipynb
@@ -80,7 +80,7 @@
" plt.ylim(yy.min(), yy.max())\n",
" plt.title(title);\n",
" plt.axis(\"equal\")\n",
- " plt.show();"
+ " plt.show()"
]
},
{
@@ -112,7 +112,7 @@
"plt.title('dataset')\n",
"plt.axis('equal')\n",
"plt.grid()\n",
- "plt.show();"
+ "plt.show()"
]
},
{
@@ -174,9 +174,9 @@
"outputs": [],
"source": [
"# génération dataset\n",
- "X_dataset, y_dataset = datasets.make_moons(noise=0.2, n_samples=1000, random_state=1)\n",
+ "X_dataset, y_dataset = datasets.make_moons(noise=0.25, n_samples=1000, random_state=1)\n",
"\n",
- "X_train, X_test, y_train, y_test = model_selection.train_test_split(X_dataset,y_dataset,test_size=.2)\n",
+ "X_train, X_test, y_train, y_test = model_selection.train_test_split(X_dataset,y_dataset,test_size=.2, random_state=1)\n",
"\n",
"# affichage dataset train+test\n",
"plt.figure(figsize=[10,8])\n",
@@ -185,7 +185,7 @@
"plt.title('dataset')\n",
"plt.axis('equal')\n",
"plt.grid()\n",
- "plt.show();"
+ "plt.show()"
]
},
{
@@ -226,13 +226,6 @@
"%time SVM.fit(X_train,y_train)\n",
"plot_classif_result_SVM(X_train,y_train,SVM,\"SVM, C=0.01\")\n",
"print(\"score test SVM %.3f\" % SVM.score(X_test, y_test) )\n",
- "print(\"nombre de vecteurs supports: %d pour classe 0 et %d pour classe 1\" % (SVM.n_support_[0],SVM.n_support_[1]))\n",
- "\n",
- "print(\"\\nC=1e-4\")\n",
- "SVM=svm.SVC(kernel='linear',C=1e-4)\n",
- "%time SVM.fit(X_train,y_train)\n",
- "plot_classif_result_SVM(X_train,y_train,SVM,\"SVM, C=0.0001\")\n",
- "print(\"score test SVM %.3f\" % SVM.score(X_test, y_test) )\n",
"print(\"nombre de vecteurs supports: %d pour classe 0 et %d pour classe 1\" % (SVM.n_support_[0],SVM.n_support_[1]))"
]
},
@@ -312,7 +305,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
- "La cellule suivante permet de trouver la valeur optimale de l'hyperparamètre $C$ par validation croisée à 5 plis (5-fold cross validation) sur la base d'apprentissage."
+ "La cellule suivante permet de trouver la valeur optimale de l'hyperparamètre $C$ par validation croisée à 5 plis (5-fold cross validation) sur la base d'apprentissage. La valeur de $\\gamma$ reste celle fixée par défaut."
]
},
{
@@ -344,7 +337,9 @@
"\n",
"Cette fonction va calculer le score de validation croisée pour différentes valeurs des paramètres: ici, $C$ et $\\gamma$ peuvent prendre des valeurs entre $10^{-3}$ et $10^3$. Par défaut, il s'agit de la validation croisée à 5 plis.\n",
"\n",
- "Visualisez les résultats de la cellule suivante:"
+ "__Remarque__: d'une exécution à l'autre, la sélection des plis change. Cela explique que les meilleurs paramètres trouvés peuvent changer, car ici les scores de validation croisée sont proches les uns des autres. \n",
+ "\n",
+ "Visualisez les résultats de la cellule suivante (l'exécution peut prendre une minute):"
]
},
{
@@ -509,7 +504,7 @@
],
"metadata": {
"kernelspec": {
- "display_name": "Python 3 (ipykernel)",
+ "display_name": "base",
"language": "python",
"name": "python3"
},
@@ -523,7 +518,7 @@
"name": "python",
"nbconvert_exporter": "python",
"pygments_lexer": "ipython3",
- "version": "3.11.5"
+ "version": "3.12.7"
}
},
"nbformat": 4,