diff --git a/TP4/TP4_ex1_sujet.ipynb b/TP4/TP4_ex1_sujet.ipynb
index eeaccd6e23848580d7a6b652bf9e31b484c4a379..14cd0f444d336bbc7be8c3a369455471a7a61160 100755
--- a/TP4/TP4_ex1_sujet.ipynb
+++ b/TP4/TP4_ex1_sujet.ipynb
@@ -80,7 +80,7 @@
     "    plt.ylim(yy.min(), yy.max())\n",
     "    plt.title(title);\n",
     "    plt.axis(\"equal\")\n",
-    "    plt.show();"
+    "    plt.show()"
    ]
   },
   {
@@ -112,7 +112,7 @@
     "plt.title('dataset')\n",
     "plt.axis('equal')\n",
     "plt.grid()\n",
-    "plt.show();"
+    "plt.show()"
    ]
   },
   {
@@ -174,9 +174,9 @@
    "outputs": [],
    "source": [
     "# génération dataset\n",
-    "X_dataset, y_dataset = datasets.make_moons(noise=0.2, n_samples=1000, random_state=1)\n",
+    "X_dataset, y_dataset = datasets.make_moons(noise=0.25, n_samples=1000, random_state=1)\n",
     "\n",
-    "X_train, X_test, y_train, y_test = model_selection.train_test_split(X_dataset,y_dataset,test_size=.2)\n",
+    "X_train, X_test, y_train, y_test = model_selection.train_test_split(X_dataset,y_dataset,test_size=.2, random_state=1)\n",
     "\n",
     "# affichage dataset train+test\n",
     "plt.figure(figsize=[10,8])\n",
@@ -185,7 +185,7 @@
     "plt.title('dataset')\n",
     "plt.axis('equal')\n",
     "plt.grid()\n",
-    "plt.show();"
+    "plt.show()"
    ]
   },
   {
@@ -226,13 +226,6 @@
     "%time SVM.fit(X_train,y_train)\n",
     "plot_classif_result_SVM(X_train,y_train,SVM,\"SVM, C=0.01\")\n",
     "print(\"score test SVM %.3f\" % SVM.score(X_test, y_test) )\n",
-    "print(\"nombre de vecteurs supports: %d pour classe 0 et %d pour classe 1\" % (SVM.n_support_[0],SVM.n_support_[1]))\n",
-    "\n",
-    "print(\"\\nC=1e-4\")\n",
-    "SVM=svm.SVC(kernel='linear',C=1e-4)\n",
-    "%time SVM.fit(X_train,y_train)\n",
-    "plot_classif_result_SVM(X_train,y_train,SVM,\"SVM, C=0.0001\")\n",
-    "print(\"score test SVM %.3f\" % SVM.score(X_test, y_test) )\n",
     "print(\"nombre de vecteurs supports: %d pour classe 0 et %d pour classe 1\" % (SVM.n_support_[0],SVM.n_support_[1]))"
    ]
   },
@@ -312,7 +305,7 @@
    "cell_type": "markdown",
    "metadata": {},
    "source": [
-    "La cellule suivante permet de trouver la valeur optimale de l'hyperparamètre $C$ par validation croisée à 5 plis (5-fold cross validation) sur la base d'apprentissage."
+    "La cellule suivante permet de trouver la valeur optimale de l'hyperparamètre $C$ par validation croisée à 5 plis (5-fold cross validation) sur la base d'apprentissage. La valeur de $\\gamma$ reste celle fixée par défaut."
    ]
   },
   {
@@ -344,7 +337,9 @@
     "\n",
     "Cette fonction va calculer le score de validation croisée pour différentes valeurs des paramètres: ici, $C$ et $\\gamma$ peuvent prendre des valeurs entre $10^{-3}$ et $10^3$. Par défaut, il s'agit de la validation croisée à 5 plis.\n",
     "\n",
-    "Visualisez les résultats de la cellule suivante:"
+    "__Remarque__: d'une exécution à l'autre, la sélection des plis change. Cela explique que les meilleurs paramètres trouvés peuvent changer, car ici les scores de validation croisée sont proches les uns des autres. \n",
+    "\n",
+    "Visualisez les résultats de la cellule suivante (l'exécution peut prendre une minute):"
    ]
   },
   {
@@ -509,7 +504,7 @@
  ],
  "metadata": {
   "kernelspec": {
-   "display_name": "Python 3 (ipykernel)",
+   "display_name": "base",
    "language": "python",
    "name": "python3"
   },
@@ -523,7 +518,7 @@
    "name": "python",
    "nbconvert_exporter": "python",
    "pygments_lexer": "ipython3",
-   "version": "3.11.5"
+   "version": "3.12.7"
   }
  },
  "nbformat": 4,