《------往期经典推荐------》
AI应用软件开发实战专栏【链接】
Baumer高防护相机如何通过YoloV8深度学习模型实现驾驶员疲劳的检测识别(C#代码UI界面版)
工业相机使用YoloV8模型实现驾驶员疲劳的检测识别
本项目集成了 YOLOv8 检测模型 与 C#图形界面工具,实现了包括图片、文件夹、视频与摄像头等多种输入方式的实现驾驶员疲劳的检测识别。
Baumer工业相机堡盟相机是一种高性能、高质量的工业相机,可用于各种应用场景,如物体检测、计数和识别、运动分析和图像处理。
Baumer的万兆网相机拥有出色的图像处理性能,可以实时传输高分辨率图像。此外,该相机还具有快速数据传输、低功耗、易于集成以及高度可扩展性等特点。
Baumer工业相机由于其性能和质量的优越和稳定,常用于高速同步采集领域,通常使用各种图像算法来提高其捕获的图像的质量。
本文以Baumer工业相机作为案例进行演示,实现将工业相机的图像或者本地图像夹导入Yolo模型从而实现驾驶员疲劳的检测识别等功能。
工业相机通过YoloV8模型实现驾驶员疲劳的检测识别的技术背景
本文通过C#中实现一个简单的UI界面,用于将YoloV8模型实现驾驶员疲劳的检测识别
。
用户可以通过该界面执行以下操作:
转换相机图像为Mat图像:通过YoloV8模型实现驾驶员疲劳的检测识别
转换本地图像为mat图像:通过YoloV8模型实现驾驶员疲劳的检测识别
通过这个UI界面,用户能够在实时应用机器视觉数据处理时快速有效地进行操作,无需深入了解图像数据的底层处理过程。这个简单的介绍旨在为开发人员提供一个明确的方向,以便开始构建此类应用程序,并且该程序主要用于演示目的。
在车辆安全技术中,驾驶员疲劳检测应用广泛,其准确性和实时性至关重要。在本文中,我们提出了一种基于人脸眼睛和嘴巴打哈欠动态追踪的YOLOv8驾驶员疲劳检测算法,其中YOLOv8针对眼睛和嘴巴小目标进行了优化,结合PERCLOS算法。
对YOLOv8的网络架构进行了显著简化,以减少计算量,提高检测速度。通过提取视频中每一帧驾驶员睁眼、闭眼、张嘴、闭嘴四种面部行为状态,利用 PERYAWN 判定算法对驾驶员状态进行标注及检测。在RGB-infrared Datasets上使用Guided Image Filtering图像增强算法,并进行混合训练及验证,验证结果表明,FPS达到101,说明YOLOv8在准确率和速度上都优于最先进的方法,为基于图像信息的驾驶员疲劳检测提供了一个有效和实用的方案。
在相机SDK中获取图像转换图像的代码分析
本文介绍使用Baumer工业相机,实现将图像转换为Bitmap图像,再转换Mat图像,导入到Yolo模型进行推理,输出实现驾驶员疲劳的检测识别的结果。
工业相机图像转换Bitmap图像格式和Mat图像重要核心代码
//将相机内部图像内存数据转为bitmap数据
System.Drawing.Bitmap bitmap = new System.Drawing.Bitmap((int)mBufferFilled.Width, (int)mBufferFilled.Height,(int)mBufferFilled.Width,System.Drawing.Imaging.PixelFormat.Format8bppIndexed, (IntPtr)((ulong)mBufferFilled.MemPtr + mBufferFilled.ImageOffset));
#region//Mono图像数据转换。彩色图像数据转换于此不同
System.Drawing.Imaging.ColorPalette palette = bitmap.Palette;
int nColors = 256;
for (int ix = 0; ix < nColors; ix++)
{
uint Alpha = 0xFF;
uint Intensity = (uint)(ix * 0xFF / (nColors - 1));
palette.Entries[ix] = System.Drawing.Color.FromArgb((int)Alpha, (int)Intensity,(int)Intensity, (int)Intensity);
}
bitmap.Palette = palette;
#endregion
string strtime = DateTime.Now.ToString("yyyyMMddhhmmssfff");
string saveimagepath = pImgFileDir + "\\" + strtime + ".brw";
//使用Bitmap格式保存
bitmap.Save(saveimagepath, System.Drawing.Imaging.ImageFormat.Bmp);
//用bitmap转换为mat
OpenCvSharp.Mat Matgray1 = OpenCvSharp.Extensions.BitmapConverter.ToMat(bitmap);
本地文件图像转换Bitmap图像格式和Mat图像重要核心代码
C#环境下代码如下所示:
if (imagePaths.Count() == 0)
{
LoadImagePaths("test_img");
}
string currentImagePath = imagePaths[currentImageIndex];
// 显示到pictureBoxA
pictureBoxA.Image.Dispose(); // 释放上一张图片资源,避免内存泄漏
pictureBoxA.Image = new Bitmap(currentImagePath);
image_path = currentImagePath;
currentImageIndex = (currentImageIndex + 1) % imagePaths.Count;
OnNotifyShowRecieveMsg("检测中,请稍等……");
//textBox1.Text = "检测中,请稍等……";
//pictureBox2.Image = null;
Application.DoEvents();
image = new Mat(image_path);
float ratio = Math.Min(1.0f * inpHeight / image.Rows, 1.0f * inpWidth / image.Cols);
int neww = (int)(image.Cols * ratio);
int newh = (int)(image.Rows * ratio);
Mat dstimg = new Mat();
Cv2.Resize(image, dstimg, new OpenCvSharp.Size(neww, newh));
Cv2.CopyMakeBorder(dstimg, dstimg, 0, inpHeight - newh, 0, inpWidth - neww, BorderTypes.Constant);
Mat图像导入YoloV8模型重要核心代码
C#环境下代码如下所示:
// 定义 ONNX 模型的路径
string onnxModelPath = "Fatigue_detection.onnx";
// 定义输入图像的形状
OpenCvSharp.Size inputShape = new OpenCvSharp.Size(640, 640);
// 从 ONNX 模型文件加载网络
if(net==null)
net = CvDnn.ReadNetFromOnnx(onnxModelPath);
string[] modelClassify = {"closed_eye","closed_mouth","open_eye","open_mouth"};
if (imagePaths.Count() == 0)
{
LoadImagePaths("test_img");
}
string currentImagePath = imagePaths[currentImageIndex];
// 显示到pictureBoxA
pictureBoxA.Image.Dispose(); // 释放上一张图片资源,避免内存泄漏
pictureBoxA.Image = new Bitmap(currentImagePath);
image_path = currentImagePath;
if (pictureBoxA.Image == null)
{
return;
}
currentImageIndex = (currentImageIndex + 1) % imagePaths.Count;
OnNotifyShowRecieveMsg("检测中,请稍等……");
Application.DoEvents();
image = new Mat(image_path);
dt1 = DateTime.Now;
// 调用识别图像的函数,并传入图像路径、阈值、网络、输入形状和分类类别列表
//result_image = Recognize(image, 0.35, net, inputShape, modelClassify);
result_image = RecognizeMat(image, 0.35, net, inputShape, modelClassify);
// 获取计算结束时间
dt2 = DateTime.Now;
// 显示输出的图像
pictureBoxA.Image = new Bitmap(result_image.ToMemoryStream());
// 显示推理耗时时间
OnNotifyShowRecieveMsg("推理耗时:" + (dt2 - dt1).TotalMilliseconds + "ms");
static Mat RecognizeMat(Mat imgInput, double threshold, Net net, OpenCvSharp.Size inputShape, string[] modelClassify)
{
using (Mat img = imgInput)
{
int inpHeight = inputShape.Height; // 输入图像的高度
int inpWidth = inputShape.Width; // 输入图像的宽度
// 对图像进行预处理,调整尺寸
Mat image = img;
float ratio = Math.Min(1.0f * inpHeight / image.Rows, 1.0f * inpWidth / image.Cols);
int neww = (int)(image.Cols * ratio);
int newh = (int)(image.Rows * ratio);
//// 将图像调整为模型需要的大小
//Mat dstimg = new Mat();
//Cv2.Resize(image, dstimg, new OpenCvSharp.Size(neww, newh));
//Cv2.CopyMakeBorder(dstimg, dstimg, 0, inpHeight - newh, 0, inpWidth - neww, BorderTypes.Constant);
//Mat BN_image = CvDnn.BlobFromImage(dstimg); // 将调整后的图像转换为Blob格式
//// 配置图片输入数据 // 将 blob 设置为网络的输入
//net.SetInput(BN_image);
//// 从图像生成用于网络输入的 blob
//Mat blob = CvDnn.BlobFromImage(img, 1 / 255.0, inputShape, new Scalar(0, 0, 0), false);
////Mat blob = CvDnn.BlobFromImage(img, 1.0 / 255.0, inputShape, new Scalar(0, 0, 0), true, false);
// 将 blob 设置为网络的输入
//net.SetInput(blob);
//// 从图像生成用于网络输入的 blob
Mat img0 = img;
Mat blob0 = CvDnn.BlobFromImage(img0, 1 / 255.0, new OpenCvSharp.Size(inputShape.Width, inputShape.Height), swapRB: true, crop: false);
net.SetInput(blob0);
// 执行前向传播获取输出
Mat output = net.Forward();
// 此处可能需要根据 C# 中 OpenCV 的特性来处理转置操作
output = ReshapeAndTranspose(output);
// 获取图像的行数(高度)
int height = img.Height;
// 获取图像的列数(宽度)
int width = img.Width;
// 计算宽度的缩放因子
double xFactor = (double)width / inputShape.Width;
// 计算高度的缩放因子
double yFactor = (double)height / inputShape.Height;
// 初始化分类类别、得分和检测框的列表
List<string> classifys = new List<string>();
List<float> scores = new List<float>();
List<Rect> boxes = new List<Rect>();
List<Double> maxVales = new List<Double>();
List<OpenCvSharp.Point> maxloces = new List<OpenCvSharp.Point>();
// 遍历输出的行
for (int i = 0; i < output.Rows; i++)
{
// 获取当前行的检测框数据
using (Mat box = output.Row(i))
{
// 在框数据的特定范围中找到最小值、最大值及其位置
OpenCvSharp.Point minloc, maxloc;
double minVal, maxVal;
// Mat classes_scores = box.ColRange(4, 5);//GetArray(i, 5, classes_scores);
// double curmates0 = box.At<float>(0);
double curmates1 = box.At<float>(4);
int collength = box.Cols;
int rowlength = box.Rows;
Mat curmates = box.ColRange(4, box.Cols);
//Cv2.MinMaxLoc(box.ColRange(4, box.Cols), out minVal, out maxVal, out minloc, out maxloc);
Cv2.MinMaxLoc(box.ColRange(4, box.Cols), out minVal, out maxVal, out minloc, out maxloc);
int classId = maxloc.Y;
if (classId == 0)
{
// 获取对应类别的得分
float score = (float)maxVal;
// 如果得分大于阈值
if (score > threshold)
{
// 将得分添加到得分列表
scores.Add(score);
// 将类别添加到类别列表
classifys.Add(modelClassify[classId]);
// 获取框的原始坐标
float x = box.At<float>(0, 0);
float y = box.At<float>(0, 1);
float w = box.At<float>(0, 2);
float h = box.At<float>(0, 3);
// 计算调整后的坐标
int xInt = (int)((x - 0.5 * w) * xFactor);
int yInt = (int)((y - 0.5 * h) * yFactor);
int wInt = (int)(w * xFactor);
int hInt = (int)(h * yFactor);
// 将调整后的框坐标添加到框列表
boxes.Add(new Rect(xInt, yInt, wInt, hInt));
}
}
}
}
// 执行非极大值抑制操作
int[] indices;
CvDnn.NMSBoxes(boxes, scores, 0.25f, 0.45f, out indices);
// 遍历非极大值抑制操作后的索引
foreach (int i in indices)
{
// 获取对应的类别、得分和框
string classify = classifys[i];
float score = scores[i];
Rect box = boxes[i];
// 获取框的坐标和尺寸
// 在图像上绘制矩形框
Cv2.Rectangle(img, box, new Scalar(0, 255, 0), 3);
// 生成类别和得分的标签文本
string label = $"{classify}: {score:F2}";
// 在图像上添加标签文本
Cv2.PutText(img, label, new OpenCvSharp.Point(box.X, box.Y - 10), HersheyFonts.HersheySimplex, 0.5, new Scalar(0, 255, 0), 2);
}
// 将图像复制输出返回
Mat result_image0 = img.Clone();
return result_image0;
// 将处理后的图像保存为文件
// Cv2.ImWrite("result.jpg", img);
}
}
代码实现演示(实现驾驶员疲劳的检测识别)
源码下载链接
C# WinForms工业相机+本地图像 通过YoloV8深度学习模型实现驾驶员疲劳的检测识别 源码
工业相机通过YoloV8模型实现驾驶员疲劳的检测识别的行业应用
工业相机 + YOLOv8 实现「驾驶员疲劳检测识别」的 7 大行业应用
(2024-2025 已落地,含源码、数据集、专利)
场景 | 业务痛点 | 工业相机/硬件形态 | YOLOv8 技术方案 & 现场效果 | 一键资源 |
---|---|---|---|---|
① 车载疲劳预警 | 夜间/逆光/戴口罩场景易漏检 | 车载 1200 万像素 30 fps 全局快门 + 红外补光 | 优化 YOLOv8 模型 + 多尺度特征融合,眨眼/打哈欠识别准确率 97 %,延迟 < 25 ms | 微信公众号源码 |
② 车队云端监管 | 多车并发、数据统一管理 | 4 K 工业相机 + 边缘 GPU | YOLOv8 + DeepSort 跟踪,每车 30 fps,疲劳事件秒级上报 | 腾讯云方案 |
③ 矿区/港口特种车辆 | 极端粉尘、震动环境 | 防爆 2 MP 工业相机 + 抗震支架 | 改进 YOLOv8(BiFPN+CBAM),误报 <1 %,联动声光报警 | CSDN 源码 |
④ 驾校/培训车 | 低成本、易部署 | USB3.0 120 fps 工业相机 | PyQt5 GUI + YOLOv8-seg,一键训练/检测,CPU 80 ms | 知乎专栏 |
⑤ 夜间长途客车 | 低光照、眼镜反光 | 星光级 2 MP + 激光补光 | YOLOv8 + CLAHE,夜间识别率 96 % | 论文 PDF |
⑥ 自动驾驶测试车 | 分心行为(抽烟、喝水、低头) | 多路 5 MP 工业相机阵列 | YOLOv8 多任务头:疲劳 + 分心 6 类行为,mAP 93 % | 博客园完整系统 |
⑦ 智慧园区叉车 | 轮班作业疲劳预警 | 车载 5 MP 工业相机 + Jetson Nano | 轻量 YOLOv8-Ghost,功耗 6 W,30 fps 实时报警 | 51CTO 项目 |
关键技术细节
数据集:公开「Fatigue-Driver-2024」含 4.8 万张图像(闭眼、打哈欠、正常、分心等),YOLO 格式即拿即训
模型:YOLOv8n/s/x + 注意力/轻量化,INT8 量化 3-5 MB,边缘端 15-25 ms/帧
部署:Jetson Orin Nano / RK3588 NPU;x86 IPC + RTX 3060 8 路并发 <30 W
合规:原始视频 72 h 自动覆盖,仅留事件 JSON,符合《个人信息保护法》