该项目基于YOLOv3实现小麦麦穗检测,使用kaggle的Global Wheat Detection数据集。先处理数据,转换真实框格式、解压、分组,切分训练和验证集,清洗微小和巨大标注边框。构建MyDataset类生成数据集,搭建以Darknet53为骨干的YOLOv3模型,设置锚框和损失函数训练,最后通过预测流程输出结果并可视化,助力小麦研究与种植管理。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

本项目是实现基于Yolov3目标检测算对来自kaggle的 Global Wheat Detection 数据集的训练和预测。yolov3本融合多种先进方法,尤其在小目标检测上效果有一定的提升,是一个速度和精度均衡的目标检测网络。

香软好吃的面包、美味小笼包、可口的饺子、以及各种特色诱人面食,你常常都会品尝到小麦加工的产品,这些作为备受欢迎的食物使小麦被广泛研究。植物科学家使用“麦穗”(含有谷物的植物顶部的尖刺)的图像检测方法,图像是全球麦田的大量准确数据,估计不同品种小麦头的密度和大小。农民在管理小麦决策时,可以使用这些数据来评估健康状况和成熟度。
然而,在室外田间图像中准确检测小麦头在视觉上可能具有挑战性。茂密的小麦植物经常重叠,风会模糊照片。两者都使得很难识别单个头部。此外,外观因成熟度、颜色、基因型和头部方向而异。最后,由于小麦在世界范围内种植,因此必须考虑不同的品种、种植密度、模式和田间条件。为小麦表型开发的模型需要在不同的生长环境之间进行泛化。目前的检测方法涉及单级和两级检测器(Yolo-V3和Faster-RCNN),但即使使用大型数据集进行训练,仍然存在对训练区域的偏差。
小麦是全球的主食,这就必须考虑到不同的生长条件。为小麦表型开发的模型需要能够在环境之间进行泛化。如果成功,研究人员可以准确地估计不同品种的小麦头的密度和大小。通过改进的检测,农民可以更好地评估他们的作物。而目标检测是先行条件。
YOLO系列算法的基本流程:
YOLO系列算法训练过程的流程图如 图1 所示:

注: 没有的代码已放在work下
数据集是来自kaggle的全球小麦检测数据集,真实框格式为左上点xywh,而yolov3的输入输出都为中心点xywh格式。需要转换:
bboxes[:, 0] = bboxes[:, 0] + bboxes[:, 2] / 2.0 # 将真实框位置由左上转为中心点的xywh格式bboxes[:, 1] = bboxes[:, 1] + bboxes[:, 3] / 2.0
# 解压数据集!unzip -q -d data data/data198878/global-wheat-detection.zip
# 导入模块import numpy as npimport pandas as pdimport paddleimport osimport cv2from PIL import Image, ImageDraw, ImageEnhancefrom paddle.vision import transforms as Timport matplotlib.pyplot as pltfrom tqdm.notebook import tqdm # 进度条模块
ROOT_PATH = 'data' def get_path(*args,fp_postfix=None):
# 获取文件路径
'''
Params: fp_postfix 文件后缀 如:jpg、png、gif等
Params: *args 获取路径参数
example:
f = get_path('a', 'b', 'c', 'd')
print(f) # data/a/b/c/d
f = get_path('a', 'b', 'c', 'd',fp_postfix='jpg')
print(f) # data/a/b/c/d.jpg
'''
if fp_postfix:
obj_path = os.path.join(ROOT_PATH, *args) + '.' + fp_postfix return obj_path
obj_path = os.path.join(ROOT_PATH, *args) return obj_path# 查看数据集信息img_nums = len(os.listdir(get_path('train')))print(f'train中的图片张数:{img_nums}') # 查看train中的图片张数labels = pd.read_csv(get_path('train.csv')) # 读取train.csv中的数据print("\n训练集有效图片数目:{}".format(labels["image_id"].nunique()))print("训练的真实框gt_box数目:",labels.shape[0])
labels.head()train中的图片张数:3422 训练集有效图片数目:3373 训练的真实框gt_box数目: 147793
image_id width height bbox source 0 b6ab77fd7 1024 1024 [834.0, 222.0, 56.0, 36.0] usask_1 1 b6ab77fd7 1024 1024 [226.0, 548.0, 130.0, 58.0] usask_1 2 b6ab77fd7 1024 1024 [377.0, 504.0, 74.0, 160.0] usask_1 3 b6ab77fd7 1024 1024 [834.0, 95.0, 109.0, 107.0] usask_1 4 b6ab77fd7 1024 1024 [26.0, 144.0, 124.0, 117.0] usask_1
在原始数据中,bbox的数据格式为字符串,需转换为数组。下面的代码根据image_id对边界框bbox进行分组,并将边界框作为 numpy 数组放置在每个image_id中,便于使用image_id快速检索所有边界框。
def group_boxes(group):
# 将image_id相同的图片
boundaries = group["bbox"].str.split(",", expand = True)
boundaries[0] = boundaries[0].str.slice(start = 1) # 去掉bbox字符串的'['
boundaries[3] = boundaries[3].str.slice(stop = -1) # 去掉bbox字符串的']'
return boundaries.values.astype(float)
labels = labels.groupby("image_id").apply(group_boxes)以下是其中一张图片的信息展示。
print('单张图片真实框形状:', labels["ffbf75e5b"].shape)
labels["ffbf75e5b"]从数据中提取的labels,需要将图像加载为 numpy 数组。此时,值得将数据拆分为训练和验证数据集。由于数据集很小,为了绝大多数图像作为训练数据,所以只将最后15张图像作为验证数据集。这可能不是标准验证的最佳尺寸,但考虑到可用图像的数量和任务的复杂性,采取了折衷方案。
# 切分数据集train_image_ids = np.unique(labels.index.values)[0:3358] val_image_ids = np.unique(labels.index.values)[3358:3373]
# 加载训图片,将尺寸1024,1024 转成 256,256,以便更快训练def load_image(image_id):
img_path = get_path('train', image_id, fp_postfix='jpg')
img = Image.open(img_path)
img = img.resize((256, 256))
return np.asarray(img)# 获取图像和真实框并存储为字典def get_data(image_ids):
data_pixels = {} # 图像内容
data_labels = {} # 真实框坐标
for image_id in tqdm(image_ids):
data_pixels[image_id] = load_image(image_id)
data_labels[image_id] = labels[image_id].copy() / 4
return data_pixels, data_labels# 训练集数据train_pixels, train_labels = get_data(train_image_ids)
0%| | 0/3358 [00:00<?, ?it/s]
# 验证集数据val_pixels, val_labels = get_data(val_image_ids)
0%| | 0/15 [00:00<?, ?it/s]
在继续之前,先看看数据集中的一些图像和边界框。
def draw_bboxes(image_id, bboxes, source = "train"):
img_path = get_path(source, image_id, fp_postfix="jpg")
image = Image.open(img_path) # 读取图片
image = image.resize((256,256)) # 调整尺寸256*256
# image = transform()(image) # 测试图像增广#################
draw = ImageDraw.Draw(image) # 实例化图片
for bbox in bboxes: # 遍历bboxes
draw_bbox(draw, bbox) # 画出bbox
return np.asarray(image)def draw_bbox(draw, bbox): # 画方框函数
x, y, width, height = bbox
draw.rectangle([x, y, x + width, y + height], width = 2, outline='red')def show_images(image_ids, bboxes, source = 'train'):
# 多个图像多次调用此函数。
pixels = []
for image_id in image_ids:
pixels.append(
draw_bboxes(image_id, bboxes[image_id], source)
)
num_of_images = len(image_ids)
fig, axes = plt.subplots(1, num_of_images, figsize = (5 * num_of_images, 5 * num_of_images))
for i, image_pixels in enumerate(pixels):
axes[i].imshow(image_pixels)show_images(train_image_ids[0:2], train_labels)
<Figure size 1000x1000 with 2 Axes>
此数据集中有少量不包含麦穗的边界框。虽然很少,但仍会影响麦穗检测,导致不准确。下面是搜索不含麦穗的微小边界框,以及标注出错的巨大边框。
tiny_bboxes = []for i, image_id in enumerate(train_image_ids): for label in train_labels[image_id]: if (label[2] * label[3]) <= 10 and label[2] * label[3] != 0:
tiny_bboxes.append((image_id, i))
print(str(len(tiny_bboxes)) + " 个微小边框")# print(tiny_bboxes)50 个微小边框
huge_bboxes = []for i, image_id in enumerate(train_image_ids): for label in train_labels[image_id]: if label[2] * label[3] > 8000:
huge_bboxes.append((image_id, i))
print(str(len(huge_bboxes)) + " 个巨大边框")# print(huge_bboxes)13 个巨大边框
# 展示部分无麦穗的边框show_images(train_image_ids[19:21], train_labels)
# 抽取边框好的训练数据,重新生成训练集,不改变原有数据def clean_labels(train_image_ids, train_labels):
good_labels = {}
for i, image_id in enumerate(train_image_ids):
good_labels[image_id] = []
for j, label in enumerate(train_labels[image_id]): # remove huge bbox
if label[2] * label[3] > 8000 and i not in [1079, 1371, 2020]: continue
# remove tiny bbox
elif label[2] < 5 or label[3] < 5: continue
else:
good_labels[image_id].append(
train_labels[image_id][j]
)
return good_labels
train_labels = clean_labels(train_image_ids, train_labels)# 数据加载全整体代码# 导入模块import osimport numpy as npimport pandas as pdfrom tqdm.notebook import tqdm # 进度条模块import cv2from PIL import Image, ImageDraw, ImageEnhanceimport matplotlib.pyplot as pltimport paddlefrom paddle.vision import transforms as T# 数据集目录ROOT_PATH = 'data' # 输入图片尺寸IMG_SIZE = 416def get_path(*args,fp_postfix=None):
# 获取文件路径
'''
Params: fp_postfix 文件后缀 如:jpg、png、gif等
Params: *args 获取路径参数
example:
f = get_path('a', 'b', 'c', 'd')
print(f) # data/a/b/c/d
f = get_path('a', 'b', 'c', 'd',fp_postfix='jpg')
print(f) # data/a/b/c/d.jpg
'''
if fp_postfix:
obj_path = os.path.join(ROOT_PATH, *args) + '.' + fp_postfix return obj_path
obj_path = os.path.join(ROOT_PATH, *args) return obj_path# bbox分组,转numpydef group_boxes(group):
# 将image_id相同的图片
boundaries = group["bbox"].str.split(",", expand = True)
boundaries[0] = boundaries[0].str.slice(start = 1) # 去掉bbox字符串的'['
boundaries[3] = boundaries[3].str.slice(stop = -1) # 去掉bbox字符串的']'
return boundaries.values.astype(float)# 加载训图片,将尺寸1024,1024 转成 IMG_SIZE*IMG_SIZE,以便更快训练def load_image(image_id):
img_path = get_path('train', image_id, fp_postfix='jpg')
img = Image.open(img_path)
img = img.resize((IMG_SIZE, IMG_SIZE))
return np.asarray(img)# 切分数据集def train_seq_val(ration_size):
train_image_ids = np.unique(labels.index.values)[0:ration_size]
val_image_ids = np.unique(labels.index.values)[ration_size:3373] return train_image_ids, val_image_ids# 获取图像和真实框并存储为字典def get_data(image_ids):
data_pixels = {} # 图像内容
data_labels = {} # 真实框坐标
for image_id in tqdm(image_ids):
data_pixels[image_id] = load_image(image_id)
data_labels[image_id] = labels[image_id].copy() / (1024 / IMG_SIZE) # 缩放标签
return data_pixels, data_labels# 抽取边框好的训练数据,重新生成训练集,不改变原有数据def clean_labels(train_image_ids, train_labels):
good_labels = {}
for i, image_id in enumerate(train_image_ids):
good_labels[image_id] = []
for j, label in enumerate(train_labels[image_id]): # remove huge bbox
if label[2] * label[3] > 8000 and i not in [1079, 1371, 2020]: continue
# remove tiny bbox
elif label[2] < 5 or label[3] < 5: continue
else:
good_labels[image_id].append(
train_labels[image_id][j])
return good_labels
labels = pd.read_csv(get_path('train.csv')) # 读取train.csv中的数labels = labels.groupby("image_id").apply(group_boxes) # 格式转换,真实框分组# 切分数据集train_image_ids, val_image_ids = train_seq_val(ration_size=3358)# 训练集数据train_pixels, train_labels = get_data(train_image_ids)# 验证集数据val_pixels, val_labels = get_data(val_image_ids)# 进一步优化真实框数据train_labels = clean_labels(train_image_ids, train_labels)0%| | 0/3358 [00:00<?, ?it/s]
0%| | 0/15 [00:00<?, ?it/s]
生成数据集
通常我会使用 Paddle data API 数据生成器来构建pipeline用于将数据传入模型中。需要为此模型完成的预处理并非微不足道,事实证明创建自定义数据生成器更容易。
麦穗检测可以看作是一分类目标检测任务,由于原数据集没有类别标签数据,需对数据添加类别标签。
def get_bbox(self, gt_bbox):
# 对于一般的检测任务来说,一张图片上往往会有多个目标物体
# 设置参数MAX_NUM = 55, 即一张图片最多取55个真实框;如果真实
# 框的数目少于55个,则将不足部分的gt_bbox的各项数值全设置为0
MAX_NUM = 55
gt_bbox2 = np.zeros((MAX_NUM, 4))
gt_class2 = np.zeros((MAX_NUM,)) # 1分类
gt_bbox = np.array(gt_bbox) for i in range(len(gt_bbox)): if i >= MAX_NUM: break
gt_bbox2[i, :] = gt_bbox[i, :]
gt_class2[i] = 0 # 一分类标签为0
return gt_bbox2, gt_class2class MyDataset(paddle.io.Dataset):
def __init__(self, image_ids, image_pixels, img_size, labels = None, mode = None):
super(MyDataset, self).__init__()
self.image_ids = image_ids
self.image_pixels = image_pixels
self.img_size = img_size
self.labels = labels
self.transform = None
self.mode = mode if self.mode == "train":
self.transform =T.Compose([
T.BrightnessTransform(0.4), # 亮度调节
T.ContrastTransform(0.4), # 对比度调节
T.HueTransform(0.4), # 色调
# T.RandomErasing(), # 随机擦除
T.Normalize(mean=[123.675, 116.28, 103.53], std=[58.395, 57.12, 57.375],data_format='HWC'), # 标准化
T.Transpose() # 数据格式转换,Transpose默认参数(2,0,1)
]) if self.mode == "val":
self.transform =T.Compose([
T.Normalize(mean=[123.675, 116.28, 103.53], std=[58.395, 57.12, 57.375],data_format='HWC'),
T.Transpose()
])
def get_bbox(self, gt_bbox):
# 对于一般的检测任务来说,一张图片上往往会有多个目标物体
# 设置参数MAX_NUM = 55, 即一张图片最多取55个真实框;如果真实
# 框的数目少于55个,则将不足部分的gt_bbox的各项数值全设置为0
MAX_NUM = 55
gt_bbox2 = np.zeros((MAX_NUM, 4))
gt_class2 = np.zeros((MAX_NUM,)) # 1分类
gt_bbox = np.array(gt_bbox) for i in range(len(gt_bbox)): if i >= MAX_NUM: break
gt_bbox2[i, :] = gt_bbox[i, :]
gt_class2[i] = 0
return gt_bbox2, gt_class2 def __getitem__(self, index):
image_id = self.image_ids[index]
X = self.image_pixels[image_id]
w = X.shape[0]
h = X.shape[1]
bboxes, gt_labels = self.get_bbox(self.labels[image_id])
box_idx = np.arange(bboxes.shape[0]) # 随机打乱真实框排列顺序
np.random.shuffle(box_idx)
gt_labels = gt_labels[box_idx]
bboxes = bboxes[box_idx] # 真实框位置是左上点的xywh格式
bboxes[:, 0] = bboxes[:, 0] + bboxes[:, 2] / 2.0 # 将真实框位置由左上转为中心点的xywh格式
bboxes[:, 1] = bboxes[:, 1] + bboxes[:, 3] / 2.0
y = bboxes if self.transform:
X = self.transform(X) return X.astype('float32'), np.array(y, dtype = 'float32') / self.img_size, \
np.array(gt_labels, dtype = 'int32'), np.array([h, w],dtype='int32') def __len__(self):
return len(self.image_ids)train_dataset = MyDataset(train_image_ids,
train_pixels,
IMG_SIZE,
train_labels,
mode='train')
val_dataset = MyDataset(val_image_ids,
val_pixels,
IMG_SIZE,
val_labels,
mode='val')# 查看数据集形状d = paddle.io.DataLoader(train_dataset, batch_size=4, shuffle=True, num_workers=0)print(next(d())[0].shape, next(d())[1].shape)[4, 3, 416, 416] [4, 55, 4]
准备好数据后,我将定义和训练模型。通过连续使用多层卷积和池化等操作,能得到语义含义更加丰富的特征图。在检测问题中,也使用卷积神经网络逐层提取图像特征,通过最终的输出特征图来表征物体位置和类别等信息。
YOLOv3算法使用的骨干网络是Darknet53。Darknet53网络的具体结构如 图16 所示,在ImageNet图像分类任务上取得了很好的成绩。在检测任务中,将图中C0后面的平均池化、全连接层和Softmax去掉,保留从输入到C0部分的网络结构,作为检测模型的基础网络结构,也称为骨干网络。YOLOv3模型会在骨干网络的基础上,再添加检测相关的网络模块。

网络层输出C0->y1、C1->y2、C2->y3 ,由YoloDetectionBlock实现

输出形状对应的信息如下图:

移至work/utils.py
多尺度检测可以解决目标稠密以及大小差异大的问题。
loss_obj = paddle.nn.fucntional.binary_cross_entropy_with_logits(pred_classification, label_classification)
P0层级特征图,对应着使用32×32的小方块,在每个区域中心生成大小分别为 [116,90], [156,198], [373,326] 的三种锚框。
P1层级特征图,对应着使用16×16大小的小方块,在每个区域中心生成大小分别为 [30,61], [62,45], [59,119] 的三种锚框。
P2层级特征图,对应着使用8×8大小的小方块,在每个区域中心生成大小分别为 [10,13], [16,30], [33,23] 的三种锚框。
将三个层级的特征图与对应锚框之间的标签关联起来,并建立损失函数,总的损失函数等于三个层级的损失函数相加。通过极小化损失函数,可以开启端到端的训练过程。

import timeimport osimport paddlefrom work.model import YOLOv3from work.utils import new_anchors
IMG_SIZE = 416ANCHORS = new_anchors(IMG_SIZE)
ANCHOR_MASKS = [[6, 7, 8], [3, 4, 5], [0, 1, 2]]
IGNORE_THRESH = 0.7# 类别数NUM_CLASSES = 1# 训练轮数MAX_EPOCH = 10def get_lr(base_lr = 0.000125, lr_decay = 0.1):
bd = [10000, 20000]
lr = [base_lr, base_lr * lr_decay, base_lr * lr_decay * lr_decay]
learning_rate = paddle.optimizer.lr.PiecewiseDecay(boundaries=bd, values=lr) return learning_rateif __name__ == '__main__': # 设置gpu
paddle.device.set_device("gpu") # 实例化数据集
train_dataset = MyDataset(train_image_ids,
train_pixels,
IMG_SIZE,
train_labels,
mode='train')
val_dataset = MyDataset(val_image_ids,
val_pixels,
IMG_SIZE,
val_labels,
mode='val') # 实例化数据生成器
train_loader = paddle.io.DataLoader(train_dataset, batch_size=10, shuffle=True, num_workers=2)
val_loader = paddle.io.DataLoader(val_dataset, batch_size=15, shuffle=False, num_workers=2) # 实例化模型
model = YOLOv3(num_classes = NUM_CLASSES)
# 学习率设置
learning_rate = get_lr() # 优化策略
opt = paddle.optimizer.Momentum(
learning_rate=learning_rate,
momentum=0.9,
weight_decay=paddle.regularizer.L2Decay(0.0005),
parameters=model.parameters()) #创建优化器
# opt = paddle.optimizer.Adam(learning_rate=learning_rate, weight_decay=paddle.regularizer.L2Decay(0.0005), parameters=model.parameters())
# 开启训练
for epoch in range(MAX_EPOCH): for i, data in enumerate(train_loader()):
img, gt_boxes, gt_labels, img_scale = data
gt_scores = np.ones(gt_labels.shape).astype('float32')
gt_scores = paddle.to_tensor(gt_scores)
img = paddle.to_tensor(img)
gt_boxes = paddle.to_tensor(gt_boxes)
gt_labels = paddle.to_tensor(gt_labels)
outputs = model(img) # 前向传播,输出[P0, P1, P2]
loss = model.get_loss(outputs, gt_boxes, gt_labels, gtscore=gt_scores,
anchors = ANCHORS,
anchor_masks = ANCHOR_MASKS,
ignore_thresh=IGNORE_THRESH,
use_label_smooth=False) # 计算损失函数
loss.backward() # 反向传播计算梯度
opt.step() # 更新参数
opt.clear_grad() if i % 100 == 0:
timestring = time.strftime("%Y-%m-%d %H:%M:%S",time.localtime(time.time())) print('{}[TRAIN]epoch {}, iter {}, output loss: {}'.format(timestring, epoch, i, loss.numpy())) # 保存参数
if (epoch % 5 == 0) or (epoch == MAX_EPOCH -1) or (epoch == 6): # 这里是为了保存第6轮
paddle.save(model.state_dict(), 'yolo_epoch{}'.format(epoch)) # 每个epoch结束之后在验证集上进行测试
model.eval() for i, data in enumerate(val_loader()):
img, gt_boxes, gt_labels, img_scale = data
gt_scores = np.ones(gt_labels.shape).astype('float32')
gt_scores = paddle.to_tensor(gt_scores)
img = paddle.to_tensor(img)
gt_boxes = paddle.to_tensor(gt_boxes)
gt_labels = paddle.to_tensor(gt_labels)
outputs = model(img)
loss = model.get_loss(outputs, gt_boxes, gt_labels, gtscore=gt_scores,
anchors = ANCHORS,
anchor_masks = ANCHOR_MASKS,
ignore_thresh=IGNORE_THRESH,
use_label_smooth=False) if i % 1 == 0:
timestring = time.strftime("%Y-%m-%d %H:%M:%S",time.localtime(time.time())) print('{}[VALID]epoch {}, iter {}, output loss: {}'.format(timestring, epoch, i, loss.numpy()))
model.train()预测过程流程如下所示:

预测过程可以分为两步:
通过网络输出计算出预测框位置和所属类别的得分。 使用非极大值抑制来消除重叠较大的预测框。 对于第1步,前面我们已经讲过如何通过网络输出值计算pred_objectness_probability, pred_boxes以及pred_classification_probability,这里推荐大家直接使用paddle.vision.ops.yolo_box,关键参数含义如下:
paddle.vision.ops.yolo_box(x, img_size, anchors, class_num, conf_thresh, downsample_ratio, clip_bbox=True, name=None, scale_x_y=1.0)
:x,网络输出特征图,例如上面提到的P0或者P1、P2。
:imgsize,输入图片尺寸。
:anchors,使用到的anchor的尺寸,如'[10, 13, 16, 30, 33, 23, 30, 61, 62, 45, 59, 119, 116, 90, 156, 198, 373, 326]。
:classnum,物体类别数。
:confthresh, 置信度阈值,得分低于该阈值的预测框位置数值不用计算直接设置为0.0。
:downsampleratio, 特征图的下采样比例,例如P0是32,P1是16,P2是8。
:name=None,名字,例如’yolobox’,一般无需设置,默认值为None。
返回值包括两项,boxes和scores,其中boxes是所有预测框的坐标值,scores是所有预测框的得分。
预测框得分的定义是所属类别的概率乘以其预测框是否包含目标物体的objectness概率,即
在上面定义的类YOLOv3下面添加函数,get_pred,通过调用paddle.vision.ops.yolo_box获得P0、P1、P2三个层级的特征图对应的预测框和得分,并将他们拼接在一块,即可得到所有的预测框及其属于各个类别的得分。
移至work/utils.py
from work.predict import predict datadir = 'data/test'predict(datadir)
W0501 17:21:15.915298 7022 gpu_resources.cc:61] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 11.2, Runtime API Version: 11.2 W0501 17:21:15.919631 7022 gpu_resources.cc:91] device: 0, cuDNN Version: 8.2.
上面的程序展示了如何读取测试数据集的图片,并将最终结果保存在json格式的文件中。
json文件中保存着测试结果,是包含所有图片预测结果的list,其构成如下:
[[img_name, [[label, score, x1, y1, x2, y2], ..., [label, score, x1, y1, x2, y2]]], [img_name, [[label, score, x1, y1, x2, y2], ..., [label, score, x1, y1, x2, y2]]], ... [img_name, [[label, score, x1, y1, x2, y2],..., [label, score, x1, y1, x2, y2]]]]
list中的每一个元素是一张图片的预测结果,list的总长度等于图片的数目,每张图片预测结果的格式是:
[img_name, [[label, score, x1, y1, x2, y2],..., [label, score, x1, y1, x2, y2]]]
其中第一个元素是图片名称image_name,第二个元素是包含该图片所有预测框的list, 预测框列表:
[[label, score, x1, x2, y1, y2],..., [label, score, x1, y1, x2, y2]]
预测框列表中每个元素[label, score, x1, y1, x2, y2]描述了一个预测框,label是预测框所属类别标签,score是预测框的得分;x1, y1, x2, y2对应预测框左上角坐标(x1, y1),右下角坐标(x2, y2)。每张图片可能有很多个预测框,则将其全部放在预测框列表中。
为了更直观的展示模型效果,下面的程序添加了读取单张图片,并画出其产生的预测框。
from work.fnc import fnfrom PIL import Image import matplotlib.pyplot as plt image_name = '2fd875eaa.jpg'plt.figure() plt.imshow(fn(image_name, 0.15, 0.15)) plt.show()
直观感受nms_thresh和valid_thresh变化对结果的影响。

以上就是【AI达人特训营第三期】全球小麦麦穗检测的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号