
本文旨在解决kerastuner在使用f1分数、auc等自定义或非默认内置指标作为超参数调优目标时常见的`keyerror`问题。我们将详细阐述如何正确定义和配置这些指标,包括内置指标的命名规范以及如何将自定义指标集成到keras模型的编译和kerastuner的`objective`设置中,确保kerastuner能够成功识别并跟踪这些指标,从而实现高效的超参数搜索。
在使用KerasTuner进行超参数调优时,我们通常会指定一个优化目标(objective),例如"val_accuracy"或"val_loss"。然而,当尝试使用F1分数、AUC(Area Under the Curve)等更复杂的评估指标作为目标时,用户可能会遇到KeyError,提示KerasTuner无法在训练日志中找到指定的指标。这通常是因为对KerasTuner如何识别和跟踪指标存在误解。
KerasTuner的objective参数实际上是期望一个字符串,该字符串对应于Keras模型在训练过程中(通过model.fit)产生的日志(logs)字典中的键。这个键通常遵循特定的命名约定,特别是对于验证集上的指标。
KerasTuner支持两种类型的指标作为优化目标:
无论使用哪种类型的指标,关键在于确保KerasTuner能够通过正确的名称在训练日志中找到它们。
要将Keras的内置指标(例如AUC或F1Score)作为KerasTuner的优化目标,需要遵循以下两个核心步骤:
您必须在Keras模型的compile方法中明确指定要使用的指标。这可以通过指标的字符串名称或其实例来完成。指标的字符串名称通常是其类名的“蛇形命名法”(snake_case)形式。
示例: 如果您想使用tf.keras.metrics.AUC或tf.keras.metrics.F1Score,您需要像这样编译模型:
import tensorflow as tf
from tensorflow import keras
# ... (模型定义)
model.compile(
optimizer='adam',
loss='binary_crossentropy',
metrics=[
'accuracy', # 内置准确率
tf.keras.metrics.AUC(name='auc_score'), # 使用实例并指定名称
tf.keras.metrics.F1Score(average='macro', name='f1_score') # 使用实例并指定名称
]
)注意: 对于TensorFlow 2.15+或Keras 3,tf.keras.metrics.F1Score和tf.keras.metrics.AUC是内置的。在旧版本中,可能需要自定义实现或使用第三方库。
KerasTuner在查找验证集上的指标时,会期望一个特定格式的名称:"val_{metric_name_string}"。这里的metric_name_string是指标在模型编译时实际使用的名称。
示例: 继续上面的例子,如果想以验证集上的F1分数为优化目标:
import keras_tuner as kt
tuner = kt.RandomSearch(
MyHyperModel(),
objective=kt.Objective("val_f1_score", direction="max"), # 对应上面编译时f1_score的验证集名称
max_trials=100,
overwrite=True,
directory="my_dir",
project_name="tune_hypermodel",
)如果您需要一个Keras内置指标库中没有的自定义指标,您需要:
通过继承tf.keras.metrics.Metric类来创建您的自定义指标。
import tensorflow as tf
from tensorflow.keras import backend as K
class CustomF1Score(tf.keras.metrics.Metric):
def __init__(self, name='custom_f1_score', **kwargs):
super(CustomF1Score, self).__init__(name=name, **kwargs)
self.true_positives = self.add_weight(name='tp', initializer='zeros')
self.false_positives = self.add_weight(name='fp', initializer='zeros')
self.false_negatives = self.add_weight(name='fn', initializer='zeros')
def update_state(self, y_true, y_pred, sample_weight=None):
y_true = tf.cast(y_true, tf.float32)
y_pred = tf.cast(tf.round(y_pred), tf.float32) # 假设二分类且输出是概率
tp = K.sum(y_true * y_pred)
fp = K.sum((1 - y_true) * y_pred)
fn = K.sum(y_true * (1 - y_pred))
self.true_positives.assign_add(tp)
self.false_positives.assign_add(fp)
self.false_negatives.assign_add(fn)
def result(self):
precision = self.true_positives / (self.true_positives + self.false_positives + K.epsilon())
recall = self.true_positives / (self.true_positives + self.false_negatives + K.epsilon())
f1 = 2 * (precision * recall) / (precision + recall + K.epsilon())
return f1
def reset_state(self):
self.true_positives.assign(0.)
self.false_positives.assign(0.)
self.false_negatives.assign(0.)
将您的自定义指标实例添加到模型的metrics列表中。
# ... (模型定义)
model.compile(
optimizer='adam',
loss='binary_crossentropy',
metrics=[
'accuracy',
CustomF1Score(name='my_f1') # 使用自定义F1分数,并指定名称
]
)同样,遵循"val_{metric_name_string}"的命名约定。
tuner = kt.RandomSearch(
MyHyperModel(),
objective=kt.Objective("val_my_f1", direction="max"), # 对应上面自定义指标的名称
max_trials=100,
overwrite=True,
directory="my_dir",
project_name="tune_hypermodel",
)下面是基于原始问题的修改版MyHyperModel,演示如何将F1Score(假设为TF 2.15+内置)作为KerasTuner的优化目标。
import keras_tuner as kt
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
from tensorflow.keras.models import Sequential
from tensorflow.keras.optimizers import Adam
# 假设X_train, y_train, X_test, y_test 已定义
class MyHyperModel(kt.HyperModel):
def build(self, hp):
model = Sequential()
model.add(layers.Flatten(input_shape=(X_train.shape[1],))) # 假设输入是二维数据
model.add(
layers.Dense(
units=hp.Int("units", min_value=24, max_value=128, step=10),
activation="relu",
)
)
model.add(layers.Dense(1, activation="sigmoid")) # 二分类问题
model.compile(
optimizer=Adam(learning_rate=hp.Float('learning_rate', 5e-5, 5e-1, step=0.001)),
loss='binary_crossentropy',
metrics=[
'accuracy',
tf.keras.metrics.F1Score(average='macro', name='f1_score') # 添加F1Score,并指定名称
]
)
return model
def fit(self, hp, model, *args, **kwargs):
return model.fit(
*args,
batch_size=hp.Choice("batch_size", [16, 32, 52]),
epochs=hp.Int('epochs', min_value=5, max_value=25, step=5),
**kwargs,
)
# 假设 X_train, y_train, X_test, y_test 已经准备好
# 例如:
# from sklearn.datasets import make_classification
# from sklearn.model_selection import train_test_split
# X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)
# X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
tuner = kt.RandomSearch(
MyHyperModel(),
objective=kt.Objective("val_f1_score", direction="max"), # 目标是验证集上的F1分数
max_trials=10, # 减少试次以便快速运行
overwrite=True,
directory="my_dir",
project_name="tune_hypermodel_f1",
)
# 运行搜索
# tuner.search(X_train, y_train, validation_data=(X_test, y_test), callbacks=[keras.callbacks.EarlyStopping('val_loss', patience=3)])
# 获取最佳模型和超参数
# best_hps = tuner.get_best_hyperparameters(num_trials=1)[0]
# best_model = tuner.get_best_models(num_models=1)[0]通过遵循上述指导原则,您可以有效地将Keras的内置或自定义指标(如F1分数和AUC)作为KerasTuner的优化目标,从而更精确地进行超参数调优,找到性能更优的模型。
以上就是KerasTuner中自定义指标作为优化目标:解决KeyError问题的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号