在当今交通网络日益发达的时代,涵洞隧道作为交通基础设施的关键组成部分,其重要性不言而喻。它们宛如城市脉络中的隐秘通道,保障着车辆与行人的顺畅通行。而在隧道等基建施工建设过程中,工程质量监管是重中之重,直接关系到基础设施的长期安全与稳定运行。其中,盾构机在盾构前进时自动进行隧道管片的铺设与固定,这一环节尤为关键。然而,若操作不当,随着时间推移,管片体上可能会出现缺陷损伤等问题,给基建安全埋下隐患。传统的安全巡检运维模式,在应对这些挑战时逐渐显露出诸多弊端,而AI智能化技术的融入,正为盾构隧道巡检带来全新的变革与希望。
传统巡检:人力之困与效率之限
传统的盾构隧道安全巡检运维模式,主要依赖组织专业的巡检运维团队,开展例行化的巡查工作。一旦发现问题,便及时进行修补处理。这种模式在过去的基建维护中发挥了一定作用,但随着时代的发展,其局限性日益凸显。
一方面,完全依赖人力的方式成本高昂。培养一支专业化的巡检团队需要投入大量的资源,包括时间、资金和精力。从人员的招聘、培训到技能提升,每一个环节都需要精心打造。而且,随着基础设施规模的不断扩大,对巡检人员数量的需求也在增加,这进一步加重了人力成本负担。
另一方面,传统巡检难以做到快速高效且全天候工作。人工巡检受到工作时间、身体状况和环境条件等多种因素的限制,无法实现对隧道的实时、不间断监测。对于一些隐蔽性较强的缺陷损伤病害问题,人工巡检可能难以及时有效发现,导致问题在不知不觉中恶化,给基建安全带来严重威胁。
AI入局:智能巡检的新曙光
随着AI智能化技术的飞速发展,越来越多的传统行业开始借助这一强大力量实现转型升级,盾构隧道巡检领域也不例外。AI技术的融入,为解决传统巡检模式的难题提供了新的思路和方法。
在盾构隧道巡检场景下,借助滑轨机器人、机器狗、无人机等机械设备实现循轨巡检成为可能。这些智能设备具有灵活性强、适应性好等优点,能够代替传统人工进行快速巡检。它们可以沿着预设的轨道或路线,在隧道内自由穿梭,深入到人工难以到达的区域,采集广泛丰富的图像数据。这些数据为后续的智能化检测识别模型的构建提供了坚实的基础。
通过对采集到的图像数据进行标注和开发,可以构建出智能化的检测识别模型。这个模型就像是一个拥有敏锐“眼睛”和聪明“大脑”的巡检专家,能够对设备端采集捕获的视频流数据进行实时检测。一旦发现问题,模型会立即触发自动预警信息发送机制,将问题信息及时传递给专业的团队进行确认。一旦确认问题确实存在,便迅速指派对应的专业团队进行处理。这种智能化的巡检方式,大大提升了工作效率,实现了精准作业。
智能巡检:优势尽显与价值凸显
AI赋能的盾构隧道智能巡检模式,相较于传统模式具有诸多显著优势。
在效率方面,智能巡检实现了快速、高效的全天候监测。智能设备可以不知疲倦地工作,不受时间和环境的限制,能够实时捕捉隧道内的各种变化。与人工巡检相比,大大缩短了巡检周期,提高了巡检频率,能够及时发现潜在的安全隐患。
在成本方面,虽然智能设备的购置和初期投入可能较高,但从长远来看,其运行成本相对较低。智能设备不需要支付高额的人工薪酬和培训费用,而且能够减少因人为因素导致的误检和漏检,降低了后续的维修成本和安全风险。
在精准度方面,智能化检测识别模型具有高度的准确性和可靠性。它能够通过对大量数据的学习和分析,识别出各种细微的缺陷损伤病害问题,避免了人工巡检中可能出现的疏忽和误判。同时,自动预警信息发送机制能够确保问题得到及时处理,防止问题的进一步恶化。
在前面的博文中,我们已经进行了相关的开发实践,感兴趣的话可以自行移步阅读即可:
《AI赋能盾构隧道巡检开启基建安全新篇章,基于YOLOv5全系列【n/s/m/l/x】参数模型开发构建AI隧道盾构场景下盾构管壁缺陷病害异常检测预警系统》
《AI赋能盾构隧道巡检开启基建安全新篇章,基于YOLOv6全系列【n/s/m/l】参数模型开发构建AI隧道盾构场景下盾构管壁缺陷病害异常检测预警系统》
《AI赋能盾构隧道巡检开启基建安全新篇章,基于YOLOv7全系列【tiny/yolov7/yolov7x】参数模型开发构建AI隧道盾构场景下盾构管壁缺陷病害异常检测预警系统》
《AI赋能盾构隧道巡检开启基建安全新篇章,基于YOLOv8全系列【n/s/m/l/x】参数模型开发构建AI隧道盾构场景下盾构管壁缺陷病害异常检测预警系统》
《AI赋能盾构隧道巡检开启基建安全新篇章,基于YOLOv9全系列【yolov9/t/s/m/c/e】参数模型开发构建AI隧道盾构场景下盾构管壁缺陷病害异常检测预警系统》
《AI赋能盾构隧道巡检开启基建安全新篇章,基于YOLOv10全系列【n/s/m/b/l/x】参数模型开发构建AI隧道盾构场景下盾构管壁缺陷病害异常检测预警系统》
本文主要是想要基于YOLOv11系列的模型来进行相应的开发实践,首先看下实例效果:
简单看下数据集实例:
ultralytics项目自发布以来目前已经逐步迭代至YOLOv11了,不可谓不快速,官方的项目在这里,如下所示:
YOLO11是Ultralytics YOLO系列实时目标检测器的次新版本,以其尖端的准确性、速度和效率重新定义了可能性。基于之前YOLO版本的显著进步,YOLO11在架构和训练方法上引入了重大改进,使其成为广泛计算机视觉任务的多功能选择。
【主要特点】
增强的特征提取:YOLO11采用了改进的骨干和颈部架构,增强了特征提取能力,以实现更精确的目标检测和复杂任务的性能。
优化的效率和速度:YOLO11引入了精炼的架构设计和优化的训练管道,提供更快的处理速度,并在准确性和性能之间保持最佳平衡。
更少的参数实现更高的准确性:通过模型设计的进步,YOLO11m在COCO数据集上实现了更高的平均精度(mAP),同时比YOLOv8m减少了22%的参数,使其在不影响准确性的情况下计算效率更高。
跨环境的适应性:YOLO11可以无缝部署在各种环境中,包括边缘设备、云平台和支持NVIDIA GPU的系统,确保最大的灵活性。
广泛支持的任务:无论是目标检测、实例分割、图像分类、姿态估计还是定向目标检测(OBB),YOLO11都设计用于应对多样化的计算机视觉挑战。
Ultralytics YOLO11在其前身的基础上引入了多项重大进步。关键改进包括:
增强的特征提取:YOLO11采用了改进的骨干和颈部架构,增强了特征提取能力,以实现更精确的目标检测。
优化的效率和速度:精炼的架构设计和优化的训练管道提供了更快的处理速度,同时在准确性和性能之间保持平衡。
更少的参数实现更高的准确性:YOLO11m在COCO数据集上实现了更高的平均精度(mAP),同时比YOLOv8m减少了22%的参数,使其在不影响准确性的情况下计算效率更高。
跨环境的适应性:YOLO11可以部署在各种环境中,包括边缘设备、云平台和支持NVIDIA GPU的系统。
广泛支持的任务:YOLO11支持多样化的计算机视觉任务,如目标检测、实例分割、图像分类、姿态估计和定向目标检测(OBB)。
YOLO11模型具有多功能性,支持广泛的计算机视觉任务,包括:
目标检测:识别和定位图像中的物体。
实例分割:检测物体并描绘其边界。
图像分类:将图像分类为预定义的类别。
姿态估计:检测和跟踪人体上的关键点。
定向目标检测(OBB):检测具有旋转的物体以提高精度。
YOLO11通过模型设计和优化技术的进步,实现了更少的参数实现更高的准确性。改进的架构允许高效的特征提取和处理,从而在COCO等数据集上实现更高的平均精度(mAP),同时比YOLOv8m减少了22%的参数。这使得YOLO11在不影响准确性的情况下计算效率更高,适合部署在资源受限的设备上,YOLO11设计用于适应各种环境,包括边缘设备。其优化的架构和高效的处理能力使其适合部署在边缘设备、云平台和支持NVIDIA GPU的系统上。这种灵活性确保了YOLO11可以在多样化的应用中使用,从移动设备上的实时检测到云环境中的复杂分割任务。
基础实例实现如下:
from ultralytics import YOLO
#n
model = YOLO("weights/yolo11n.pt")
results = model.train(data='data/self.yaml', epochs=100, device=0,batch=32,workers=0,name="yolov11n")
print("results: ", results)
#s
model = YOLO("weights/yolo11s.pt")
results = model.train(data='data/self.yaml', epochs=100, device=0,batch=32,workers=0,name="yolov11s")
print("results: ", results)
#m
model = YOLO("weights/yolo11m.pt")
results = model.train(data='data/self.yaml', epochs=100, device=0,batch=32,workers=0,name="yolov11m")
print("results: ", results)
#l
model = YOLO("weights/yolo11l.pt")
results = model.train(data='data/self.yaml', epochs=100, device=0,batch=32,workers=0,name="yolov11l")
print("results: ", results)
#x
model = YOLO("weights/yolo11x.pt")
results = model.train(data='data/self.yaml', epochs=100, device=0,batch=32,workers=0,name="yolov11x")
print("results: ", results)
这里我们依次选择n、s、m、l和x五款不同参数量级的模型来进行开发。
这里给出yolov11的模型文件如下:
# Parameters
nc: 3 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'
# [depth, width, max_channels]
n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPs
s: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPs
m: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPs
l: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPs
x: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs
# YOLO11n backbone
backbone:
# [from, repeats, module, args]
- [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
- [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
- [-1, 2, C3k2, [256, False, 0.25]]
- [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
- [-1, 2, C3k2, [512, False, 0.25]]
- [-1, 1, Conv, [512, 3, 2]] # 5-P4/16
- [-1, 2, C3k2, [512, True]]
- [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32
- [-1, 2, C3k2, [1024, True]]
- [-1, 1, SPPF, [1024, 5]] # 9
- [-1, 2, C2PSA, [1024]] # 10
# YOLO11n head
head:
- [-1, 1, nn.Upsample, [None, 2, "nearest"]]
- [[-1, 6], 1, Concat, [1]] # cat backbone P4
- [-1, 2, C3k2, [512, False]] # 13
- [-1, 1, nn.Upsample, [None, 2, "nearest"]]
- [[-1, 4], 1, Concat, [1]] # cat backbone P3
- [-1, 2, C3k2, [256, False]] # 16 (P3/8-small)
- [-1, 1, Conv, [256, 3, 2]]
- [[-1, 13], 1, Concat, [1]] # cat head P4
- [-1, 2, C3k2, [512, False]] # 19 (P4/16-medium)
- [-1, 1, Conv, [512, 3, 2]]
- [[-1, 10], 1, Concat, [1]] # cat head P5
- [-1, 2, C3k2, [1024, True]] # 22 (P5/32-large)
- [[16, 19, 22], 1, Detect, [nc]] # Detect(P3, P4, P5)
实验阶段我们保持了相同的参数设置,等待长时期的训练过程结束之后我们来对以上六款不同参数量级的模型进行纵向的对比分析,如下:
【Precision曲线】
精确率曲线(Precision Curve)是一种用于评估二分类模型在不同阈值下的精确率性能的可视化工具。它通过绘制不同阈值下的精确率和召回率之间的关系图来帮助我们了解模型在不同阈值下的表现。
精确率(Precision)是指被正确预测为正例的样本数占所有预测为正例的样本数的比例。召回率(Recall)是指被正确预测为正例的样本数占所有实际为正例的样本数的比例。
绘制精确率曲线的步骤如下:
使用不同的阈值将预测概率转换为二进制类别标签。通常,当预测概率大于阈值时,样本被分类为正例,否则分类为负例。
对于每个阈值,计算相应的精确率和召回率。
将每个阈值下的精确率和召回率绘制在同一个图表上,形成精确率曲线。
根据精确率曲线的形状和变化趋势,可以选择适当的阈值以达到所需的性能要求。
通过观察精确率曲线,我们可以根据需求确定最佳的阈值,以平衡精确率和召回率。较高的精确率意味着较少的误报,而较高的召回率则表示较少的漏报。根据具体的业务需求和成本权衡,可以在曲线上选择合适的操作点或阈值。
精确率曲线通常与召回率曲线(Recall Curve)一起使用,以提供更全面的分类器性能分析,并帮助评估和比较不同模型的性能。
【Recall曲线】
召回率曲线(Recall Curve)是一种用于评估二分类模型在不同阈值下的召回率性能的可视化工具。它通过绘制不同阈值下的召回率和对应的精确率之间的关系图来帮助我们了解模型在不同阈值下的表现。
召回率(Recall)是指被正确预测为正例的样本数占所有实际为正例的样本数的比例。召回率也被称为灵敏度(Sensitivity)或真正例率(True Positive Rate)。
绘制召回率曲线的步骤如下:
使用不同的阈值将预测概率转换为二进制类别标签。通常,当预测概率大于阈值时,样本被分类为正例,否则分类为负例。
对于每个阈值,计算相应的召回率和对应的精确率。
将每个阈值下的召回率和精确率绘制在同一个图表上,形成召回率曲线。
根据召回率曲线的形状和变化趋势,可以选择适当的阈值以达到所需的性能要求。
通过观察召回率曲线,我们可以根据需求确定最佳的阈值,以平衡召回率和精确率。较高的召回率表示较少的漏报,而较高的精确率意味着较少的误报。根据具体的业务需求和成本权衡,可以在曲线上选择合适的操作点或阈值。
召回率曲线通常与精确率曲线(Precision Curve)一起使用,以提供更全面的分类器性能分析,并帮助评估和比较不同模型的性能。
【mAP0.5】
mAP0.5,也被称为mAP@0.5或AP50,指的是当Intersection over Union(IoU)阈值为0.5时的平均精度(mean Average Precision)。IoU是一个用于衡量预测边界框与真实边界框之间重叠程度的指标,其值范围在0到1之间。当IoU值为0.5时,意味着预测框与真实框至少有50%的重叠部分。
在计算mAP0.5时,首先会为每个类别计算所有图片的AP(Average Precision),然后将所有类别的AP值求平均,得到mAP0.5。AP是Precision-Recall Curve曲线下面的面积,这个面积越大,说明AP的值越大,类别的检测精度就越高。
mAP0.5主要关注模型在IoU阈值为0.5时的性能,当mAP0.5的值很高时,说明算法能够准确检测到物体的位置,并且将其与真实标注框的IoU值超过了阈值0.5。
【mAP0.5:0.95】
mAP0.5:0.95,也被称为mAP@[0.5:0.95]或AP@[0.5:0.95],表示在IoU阈值从0.5到0.95变化时,取各个阈值对应的mAP的平均值。具体来说,它会在IoU阈值从0.5开始,以0.05为步长,逐步增加到0.95,并在每个阈值下计算mAP,然后将这些mAP值求平均。
这个指标考虑了多个IoU阈值下的平均精度,从而更全面、更准确地评估模型性能。当mAP0.5:0.95的值很高时,说明算法在不同阈值下的检测结果均非常准确,覆盖面广,可以适应不同的场景和应用需求。
对于一些需求比较高的场合,比如安全监控等领域,需要保证高的准确率和召回率,这时mAP0.5:0.95可能更适合作为模型的评价标准。
综上所述,mAP0.5和mAP0.5:0.95都是用于评估目标检测模型性能的重要指标,但它们的关注点有所不同。mAP0.5主要关注模型在IoU阈值为0.5时的性能,而mAP0.5:0.95则考虑了多个IoU阈值下的平均精度,从而更全面、更准确地评估模型性能。
【loss曲线】
在深度学习的训练过程中,loss函数用于衡量模型预测结果与实际标签之间的差异。loss曲线则是通过记录每个epoch(或者迭代步数)的loss值,并将其以图形化的方式展现出来,以便我们更好地理解和分析模型的训练过程。
【F1值曲线】
F1值曲线是一种用于评估二分类模型在不同阈值下的性能的可视化工具。它通过绘制不同阈值下的精确率(Precision)、召回率(Recall)和F1分数的关系图来帮助我们理解模型的整体性能。
F1分数是精确率和召回率的调和平均值,它综合考虑了两者的性能指标。F1值曲线可以帮助我们确定在不同精确率和召回率之间找到一个平衡点,以选择最佳的阈值。
绘制F1值曲线的步骤如下:
使用不同的阈值将预测概率转换为二进制类别标签。通常,当预测概率大于阈值时,样本被分类为正例,否则分类为负例。
对于每个阈值,计算相应的精确率、召回率和F1分数。
将每个阈值下的精确率、召回率和F1分数绘制在同一个图表上,形成F1值曲线。
根据F1值曲线的形状和变化趋势,可以选择适当的阈值以达到所需的性能要求。
F1值曲线通常与接收者操作特征曲线(ROC曲线)一起使用,以帮助评估和比较不同模型的性能。它们提供了更全面的分类器性能分析,可以根据具体应用场景来选择合适的模型和阈值设置。
综合五款不同参数量级模型的开发实验对比结果来看:5款模型没有拉开较为明显的差距,综合对比考虑最终选择使用yolov11s来作为线上推理模型。
接下来看下yolov11s模型的详细情况。
【离线推理实例】
【Batch实例】
【混淆矩阵】
【F1值曲线】
【Precision曲线】
【PR曲线】
【Recall曲线】
【训练可视化】
AI赋能盾构隧道巡检只是智能化技术在基建领域应用的一个缩影。随着技术的不断进步和创新,智能巡检模式将在更多领域得到广泛应用和推广。未来,我们可以期待更加先进、智能的巡检设备出现,它们将具备更强的感知能力、分析能力和决策能力,能够实现对隧道结构的全方位、多层次监测。同时,智能化检测识别模型也将不断优化和完善,提高对各种复杂问题的识别和处理能力。
此外,智能巡检模式还将与其他技术手段相结合,如大数据、云计算、物联网等,形成一个更加完整、高效的基建安全监测体系。通过数据的共享和协同分析,实现对基建安全的实时评估和预测,为基础设施的规划、建设和维护提供更加科学、准确的决策依据。AI智能化技术为盾构隧道巡检带来了前所未有的机遇和变革。它不仅解决了传统巡检模式的难题,提高了工作效率和精准度,还为基建安全提供了更加可靠的保障。在未来的发展中,我们有理由相信,智能巡检将成为基建领域的主流模式,开启基建安全的新篇章,为我们的出行和生活创造更加安全、便捷的环境。