
本文旨在解决kerastuner在超参数调优过程中,使用f1 score、auc等自定义或非默认指标作为目标时常见的`keyerror`问题。核心在于明确kerastuner识别目标指标的机制,即指标必须在模型编译时被正确定义和包含,并且在kerastuner的`objective`中,目标名称需严格遵循`val_metric_name_string`的格式,以确保调优器能从训练日志中正确提取指标值。
KerasTuner是Keras官方推荐的超参数调优库,它提供了强大的功能来自动化寻找最优模型架构和训练参数的过程。然而,当开发者尝试使用诸如F1 Score、AUC(Area Under the Curve)等在分类任务中更为专业和常用的指标作为调优目标时,常常会遇到KeyError。这通常是由于KerasTuner在训练日志中找不到指定指标而引发的运行时错误,例如KeyError: 'val_f1'。理解KerasTuner如何识别和追踪这些指标,是解决此类问题的关键。
KerasTuner通过读取Keras模型训练过程中生成的日志(logs字典)来获取各个指标的值,从而评估不同超参数组合的表现。当您在kt.RandomSearch或任何其他KerasTuner调优器中指定objective时,KerasTuner会尝试在这些日志中查找对应名称的指标。
其核心机制包括以下两点:
Keras支持两种主要类型的指标:内置指标和自定义指标。
Keras提供了丰富的内置指标,如accuracy、loss、mse、mae、AUC、Precision、Recall等。
# 使用字符串名称 model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy', 'auc']) # 使用类实例 import tensorflow as tf model.compile(optimizer='adam', loss='binary_crossentropy', metrics=[tf.keras.metrics.Accuracy(), tf.keras.metrics.AUC()])
当内置指标无法满足特定需求时,您可以创建自定义指标。这通常通过继承tf.keras.metrics.Metric类来实现。
我们将以F1 Score为例,演示如何在KerasTuner中正确配置自定义指标。这里我们优先使用TensorFlow 2.15+或Keras 2.15+中内置的tf.keras.metrics.F1Score。
首先,从tensorflow.keras.metrics中导入F1Score。
import tensorflow as tf from tensorflow.keras import metrics # ... 其他导入 ...
在您的HyperModel的build方法中,当编译模型时,将F1Score实例添加到metrics列表中。请注意,F1Score的默认名称是f1_score。
class MyHyperModel(kt.HyperModel):
def build(self, hp):
model = Sequential()
# ... 模型层定义 ...
model.add(layers.Dense(1, activation="sigmoid"))
# 编译模型时包含F1Score
model.compile(
optimizer=Adam(learning_rate=hp.Float('learning_rate', 5e-5, 5e-1, step=0.001)),
loss='binary_crossentropy',
metrics=['accuracy', metrics.F1Score(thresholds=0.5)] # 添加F1Score实例
)
return model说明:metrics.F1Score(thresholds=0.5)会计算二分类问题的F1 Score,并以f1_score作为其在日志中的名称。
在初始化KerasTuner调优器时,将objective设置为"val_f1_score",并指定优化方向。
tuner = kt.RandomSearch(
MyHyperModel(),
objective=kt.Objective("val_f1_score", direction="max"), # 使用val_f1_score作为目标
max_trials=100,
overwrite=True,
directory="my_dir",
project_name="tune_hypermodel",
)以下是一个整合了上述步骤的完整示例,演示如何在KerasTuner中使用F1 Score作为调优目标。
import keras_tuner as kt
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
from tensorflow.keras.models import Sequential
from tensorflow.keras.optimizers import Adam
from tensorflow.keras.regularizers import l2
from tensorflow.keras import metrics # 导入metrics模块
# 模拟数据
# 为了使示例可运行,我们创建一些虚拟数据
num_samples = 1000
num_features = 10
X = pd.DataFrame(tf.random.normal((num_samples, num_features)).numpy())
y = pd.DataFrame(tf.random.uniform((num_samples, 1), minval=0, maxval=2, dtype=tf.int32)).iloc[:, 0]
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
class MyHyperModel(kt.HyperModel):
def build(self, hp):
model = Sequential()
model.add(layers.Flatten(input_shape=(X_train.shape[1],))) # 确保输入形状正确
model.add(
layers.Dense(
units=hp.Int("units", min_value=24, max_value=128, step=10),
activation="relu",
kernel_regularizer=l2(hp.Float('l2_reg', 1e-5, 1e-2, sampling='log')) # 添加L2正则化作为超参数
)
)
model.add(layers.Dense(1, activation="sigmoid")) # 二分类输出层
# 编译模型,包含F1Score作为评估指标
model.compile(
optimizer=Adam(learning_rate=hp.Float('learning_rate', 5e-5, 5e-1, sampling='log')),
loss='binary_crossentropy',
metrics=['accuracy', metrics.F1Score(thresholds=0.5)] # 添加F1Score
)
return model
def fit(self, hp, model, *args, **kwargs):
return model.fit(
*args,
batch_size=hp.Choice("batch_size", [16, 32, 64]), # 调整batch_size选项
epochs=hp.Int('epochs', min_value=5, max_value=25, step=5),
**kwargs,
)
# 初始化KerasTuner的RandomSearch
tuner = kt.RandomSearch(
MyHyperModel(),
objective=kt.Objective("val_f1_score", direction="max"), # 目标设置为val_f1_score,方向为最大化
max_trials=10, # 减少试验次数以便快速运行示例
overwrite=True,
directory="my_dir",
project_name="tune_hypermodel_f1",
)
# 开始搜索
print("开始搜索超参数...")
tuner.search(X_train, y_train, validation_data=(X_test, y_test), callbacks=[keras.callbacks.EarlyStopping('val_loss', patience=3)])
print("搜索完成。")
# 获取最佳超参数和模型
best_hps = tuner.get_best_hyperparameters(num_trials=1)[0]
best_model = tuner.get_best_models(num_models=1)[0]
print(f"\n最佳超参数: {best_hps.values}")
loss, accuracy, f1_score = best_model.evaluate(X_test, y_test, verbose=0)
print(f"最佳模型在测试集上的F1 Score: {f1_score:.4f}")在KerasTuner中使用F1 Score、AUC等自定义或非默认指标作为调优目标是完全可行的。关键在于理解KerasTuner如何与Keras模型的训练日志交互,并遵循其命名约定。通过在模型编译时明确包含所需指标,并在KerasTuner的Objective中以val_metric_name_string的格式正确指定目标名称,您就可以充分利用这些高级指标来指导超参数搜索,从而找到性能更优的模型。
以上就是KerasTuner中自定义指标(如F1、AUC)作为调优目标的实践指南的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号