-
Notifications
You must be signed in to change notification settings - Fork 1
/
Copy pathevaluate_rmse_time.py
227 lines (193 loc) · 7.4 KB
/
evaluate_rmse_time.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
import os
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression, Ridge
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import PolynomialFeatures, StandardScaler
from sklearn.metrics import mean_squared_error
import time
def linear_regression_model(
df,
feature_expansion=False,
regularization=False,
folder=".",
alpha=1.0,
plot_and_save=False,
plot_coefs=False,
degree=7,
):
# Création du dossier si non existant
if not os.path.exists(folder):
os.makedirs(folder)
# Sélection des variables d'entrée et de sortie
X = df[
[
"lhgr",
"fuel_radius",
"gap_size",
"clad_thickness",
"coolant_temperature",
"time",
]
]
y = df["volAverage(T)"]
# Standardisation des données pour éviter les problèmes de conditionnement
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)
# Expansion des caractéristiques si activée
if feature_expansion:
poly = PolynomialFeatures(
degree=degree, interaction_only=False, include_bias=False
)
X_expanded = poly.fit_transform(X_scaled)
feature_names = poly.get_feature_names_out(X.columns)
X_scaled = X_expanded
# Séparation des données en ensembles d'entraînement et de test
X_train, X_test, y_train, y_test = train_test_split(
X_scaled, y, test_size=0.2, random_state=42
)
# Création du modèle avec régularisation (Ridge) si activée
if regularization:
model = Ridge(alpha=alpha)
else:
model = LinearRegression()
# Entraînement du modèle
model.fit(X_train, y_train)
# Prédictions
y_pred = model.predict(X_test)
# Calcul de l'erreur MSE et RMSE
mse = mean_squared_error(y_test, y_pred)
rmse = np.sqrt(mse)
print(f"Mean Squared Error: {mse}")
print(f"Root Mean Squared Error (RMSE): {rmse}")
# Paramètres utilisés dans le graphique
feature_expansion_str = (
"Feature Expansion" if feature_expansion else "No Feature Expansion"
)
regularization_str = (
f"Regularization (alpha={alpha})" if regularization else "No Regularization"
)
# Plot et sauvegarde des résultats de prédiction si activé
if plot_and_save:
plt.figure(figsize=(8, 8))
plt.scatter(y_test, y_pred, alpha=0.2, label="Predictions")
plt.plot(
[y_test.min(), y_test.max()],
[y_test.min(), y_test.max()],
color="red",
linestyle="--",
label="Ideal line",
)
plt.xlabel("True Values", fontsize=20)
plt.ylabel("Predictions", fontsize=20)
plt.title(
f"Predictions vs True Values\n{feature_expansion_str}, {regularization_str}",
fontsize=22,
)
plt.legend(title=f"RMSE: {rmse:.4f}", fontsize=16)
plt.grid(True)
plt.tight_layout()
plt.savefig(
f"{folder}/predictions_vs_true_values_{feature_expansion_str}_{regularization_str}_degree{degree}.pdf"
)
plt.show()
plt.close()
# Plot et sauvegarde des coefficients si activé
if plot_coefs:
coefs = model.coef_
coef_names = X.columns if not feature_expansion else feature_names
# Sélection des 15 plus grands coefficients en valeur absolue
abs_coefs = np.abs(coefs)
top_15_indices = np.argsort(abs_coefs)[-15:]
top_15_coefs = coefs[top_15_indices]
top_15_coef_names = [coef_names[i] for i in top_15_indices]
plt.figure(figsize=(10, 6))
plt.barh(top_15_coef_names, top_15_coefs)
plt.xlabel("Coefficient Value", fontsize=20)
plt.title(
f"Top 15 Model Coefficients\n{feature_expansion_str}, {regularization_str}",
fontsize=22,
)
plt.grid(True)
plt.tight_layout()
plt.savefig(
f"{folder}/top_15_model_coefficients_{feature_expansion_str}_{regularization_str}_degree{degree}.pdf"
)
plt.show()
plt.close()
return model, mse, rmse
def evaluate_rmse_time(df, folder="plots", regularization=False, alpha=1.0):
results = [] # Pour stocker les résultats
for degree in range(1, 11): # Degré de 1 à 11
print(f"Evaluating degree {degree}...")
start_time = time.time()
# Appel de la fonction de régression avec l'expansion des caractéristiques
model, mse, rmse = linear_regression_model(
df,
feature_expansion=True,
regularization=regularization,
folder=folder,
alpha=alpha,
plot_and_save=False,
plot_coefs=False,
degree=degree,
)
elapsed_time = time.time() - start_time # Temps de calcul
print(f"Time for degree {degree}: {elapsed_time:.4f} seconds")
# Enregistrement des résultats dans la liste
results.append(
{"Degree": degree, "RMSE": rmse, "Computation Time": elapsed_time}
)
# Sauvegarde dans un fichier CSV
results_df = pd.DataFrame(results)
results_df.to_csv(f"{folder}/evaluation_results.csv", index=False)
# Lecture des résultats et tracé des courbes
results_df = pd.read_csv(f"{folder}/evaluation_results.csv")
plt.figure(figsize=(12, 8))
# Axe principal pour RMSE
ax1 = plt.gca()
ax1.plot(
results_df["Degree"], results_df["RMSE"], label="RMSE", marker="o", color="blue"
)
ax1.set_xlabel("Degree of Polynomial Expansion", fontsize=22)
ax1.set_ylabel("RMSE (K)", fontsize=22, color="blue")
ax1.tick_params(axis="y", labelcolor="blue", labelsize=16)
ax1.tick_params(axis="x", labelsize=16)
# Formatage des axes x pour n'afficher que des entiers
ax1.set_xticks(np.arange(1, 10, 1)) # Seules les valeurs entières de 1 à 9
ax1.xaxis.set_major_formatter(plt.FuncFormatter(lambda x, _: f"{int(x)}"))
# Application de l'échelle logarithmique sur l'axe des RMSE
ax1.set_yscale("log")
# Axe secondaire pour le temps de calcul
ax2 = ax1.twinx()
ax2.plot(
results_df["Degree"],
results_df["Computation Time"],
label="Computation Time",
marker="o",
color="black",
)
ax2.set_ylabel("Computation Time (s)", fontsize=22, color="black")
ax2.tick_params(axis="y", labelcolor="black", labelsize=16)
# Application de l'échelle logarithmique sur l'axe du temps de calcul
ax2.set_yscale("log")
# Formatage des axes y pour les entiers
ax2.tick_params(axis="y", labelsize=16)
# Suppression des lignes de grille horizontales (y) et ajout des petites marques de tirets
ax1.grid(
True, which="major", axis="x", color="gray", linestyle="-", linewidth=0.5
) # Grille uniquement sur l'axe des x
ax1.minorticks_on() # Activation des petites marques
ax1.tick_params(
axis="y", which="minor", length=5, width=1, color="blue"
) # Petites marques sur l'axe des y
ax1.grid(
True, which="minor", axis="y", color="gray", linestyle=":", linewidth=0.5
) # Petites marques de grille sur l'axe des y
# Titre et légendes
ax1.legend(loc="upper left", fontsize=18)
ax2.legend(loc="upper right", fontsize=18)
plt.tight_layout()
plt.savefig(f"{folder}/rmse_and_computation_time_vs_degree_log.pdf")
plt.show()