OpenCV计算机视觉实战(4)——计算机视觉核心技术全解析

发布于:2025-05-10 ⋅ 阅读:(16) ⋅ 点赞:(0)

0. 前言

计算机视觉是属于计算机科学和人工智能的交叉领域,该领域的目标是使机器能够像人类一样感知和解释视觉信息。虽然计算机视觉已经在多个领域中应用广泛,但仍存在各式各样的挑战,包括视觉数据的复杂性、画面遮挡、语义理解、图像分类、物体检测、语义分割、三维重建、深度估计和视频理解。机器学习算法,特别是深度学习方法,如卷积神经网络 (Convolutional Neural Network, CNN),已成为解决这些挑战、使机器理解和解释视觉信息的不可或缺的工具。随着计算机视觉的不断发展,解决这些挑战能够为自动驾驶车辆、机器人技术、医疗保健和增强现实等各个领域的开创性应用铺平道路。在本节中,我们将探讨计算机视觉中存在的各类挑战。

1. 计算机视觉

计算机视觉致力于使机器能够理解和解释来自图像或视频的视觉信息,涉及分析和提取视觉数据中的特征,模拟人类的视觉感知。计算机视觉主要包含以下方向:

  • 图像分类:根据图像内容对图像进行分类,根据图像的内容,为图像分配一个标签名称,用于图像分类的流行深度学习模型包括基于 CNN 的模型 AlexNetVGGGoogLeNet (Inception)、ResNetEfficientNet,迁移学习利用预训练的 CNN 模型(如 ImageNet),并针对特定任务对模型进行微调
  • 目标检测:目标检测专注于定位和识别图像中的多个对象,常用模型包括 R-CNNFast R-CNNFaster R-CNNSSDYOLO)
  • 物体定位:物体定位涉及确定图像中对象的精确位置或边界框坐标,通常是目标检测算法的一个组成部分
  • 语义分割:语义分割旨在使用相应的类标签为图像中的每个像素打上标签,从而实现对对象边界的细粒度理解,常用的语义分割模型包括 FCNU-NetDeepLab
  • 实例分割:实例分割通过识别和描述图像中的各个对象实例,将目标检测和语义分割结合起来,常用算法包括 Mask R-CNN
  • 光学字符识别:光学字符识别 (Optical Character Recognition, OCR) 侧重于从图像或文档中提取文本,Tesseract 是一个流行的开源 OCR 引擎,此外,包括递归神经网络 (Recurrent Neural Network, RNN) 和基于注意力的模型在内的深度学习模型在 OCR 任务中同样表现优异
  • 姿态估计:姿态估计识别人类的位置和姿态,常用算法包括 OpenPoseAlphaPoseMask R-CNN
  • 视频分析:视频分析涵盖动作识别、目标跟踪和活动检测等任务。可以使用包括 3D CNNRNN 等在内的多种深度学习模型进行视频分析
  • 其他应用:除了上述应用外,计算机视觉还广泛应用于图像匹配、超分辨率、图像去噪等任务。

2. 图像处理面临的挑战

在机器学习领域,图像是一类非结构化数据,这是因为图像数据没有定义的结构,无法通过单独的像素点唯一地识别图像的内容,这种固有的非结构化数据特性使图像处理成为一项极具挑战性的任务。图像包含大量的数据,人类可以直观地处理这些数据,这是人类通过数百万年的进化获得的能力,将相同水平的能力赋予计算机程序是一个巨大的挑战:

  • 图像差异性:图像分类中的主要挑战之一源于图像的巨大变异性。图像可能在光照条件、视角、比例、旋转、遮挡和背景混杂等方面表现出差异,这些变化使得算法难以从有限的训练数据中有效地泛化,并难以准确地对未见过的图像进行分类
  • 高维数据:图像由高维数据表示,每个像素都对特征空间有所贡献。数据的高维度对图像分类算法构成了挑战,因为它增加了计算复杂性并需求大量的计算资源。高效的特征提取和降维技术对于有效应对这一挑战至关重要
  • 过拟合和泛化:过拟合是指模型在训练数据上学习优秀,但在未见数据上表现不佳。由于图像数据集的复杂性,过拟合是图像分类中的一个重要问题。深度神经网络,由于其大量的参数,特别容易过拟合。强大的正则化技术,如 dropout 和权重衰减,是缓解过拟合并实现更好泛化的必要手段
  • 有限的训练数据:标记训练数据的可用性在图像分类中发挥着至关重要的作用。然而,收集和注释多样化和广泛的数据集极其耗时。有限的训练数据无法完整的捕捉现实世界图像的各种变化,导致在新数据样本上表现不佳。数据增强、迁移学习和域自适应等技术可以帮助缓解有限训练数据的影响
  • 类别不平衡:当数据集中某些类别的样本数量明显少于其他类别时,就会出现类别不平衡问题。这一问题妨碍了学习过程,因为模型倾向于偏向于多数类别,导致对样本较少的类别的分类性能不佳。通过过采样、欠采样和类别加权等策略来解决类别不平衡,确保在训练过程中对所有类别进行公平表示
  • 计算资源:基于深度学习的图像分类模型通常需要大量的计算资源,包括高性能 GPU 和大容量内存,训练和微调复杂模型可能会消耗大量的计算资源和时间
  • 对抗攻击:对抗攻击旨在通过向输入图像引入微小扰动来欺骗图像分类模型。这些扰动经过精心设计,以欺骗模型对图像进行错误分类。对抗攻击突显了图像分类模型的脆弱性,并引发了对其在实际场景中鲁棒性的担忧。

我们已经了解了图像处理和计算机视觉的基本概念,接下来,我们开始讨论计算机视觉领域的具体任务。

3. 图像分类

图像分类是计算机视觉中的基本任务,根据图像内容将图像分类到不同的预定义类别或标签中。其目的是教会机器识别和区分图像中描绘的各种对象、场景或概念,图像分类旨在识别给定图像中最突出的物体,无论物体占据了多少面积,图像分类都旨在聚焦并识别图像中的物体。
随着深度学习的兴起,图像分类已经取得了巨大的进展,但它仍然是一个具有挑战性的问题。一个简单的例子是,如果图像中有两个不同的物体,那么应该如何对图像进行分类呢?另外,如何确定什么是物体,什么是杂物呢?
例如,下面两张图中都存在小姐姐,但在左图中更像是一种杂物。通俗理解,是因为左图中的小姐姐存在遮挡。虽然这对人类来说是显而易见的,但计算机如何从一个二维像素矩阵中识别出这种差异仍存在挑战。

图像分类

4. 目标检测

目标检测是识别和定位图像或视频帧中多个物体的任务。它超越了图像分类的范畴,后者专注于为整个图像分配一个单一(或多个)标签。目标检测涉及精确划定物体的边界并提供关于其在图像中位置的信息。物体检测算法旨在回答两个主要问题:图像中有哪些物体存在?这些物体位于哪里?物体检测在许多应用中发挥着重要作用,包括自动驾驶、监控系统、目标跟踪、增强现实和机器人技术,在这些应用中,准确识别和定位物体的能力对于做出明智决策和采取适当行动至关重要。为了实现这一目标,物体检测算法通常包含以下过程:

  • 区域提议:首先,识别图像中可能包含物体的潜在区域。采用如选择性搜索、边框或区域提议网络 (regionproposal network, RPN) 生成区域提议
  • 特征提取:对于每个提议的区域,提取一组特征以捕捉底层物体的识别特性。常使用预训练的 CNN 模型,如 VGGResNetEfficientNet,从区域中提取丰富的特征表示
  • 分类:利用提取的特征对每个提议的区域进行分类。使用分类算法,如支持向量机 (support vector machine, SVM)、逻辑回归,或基于 softmax 的分类器,为每个区域分配一个类别标签
  • 定位:除了分类之外,目标检测还会在提议的区域内精确定位物体,预测包围物体的边界框的坐标。边界框提供了关于物体位置、大小的信息
  • 非极大值抑制:由于多个区域提议可能重叠或覆盖相同的物体,采用非极大值抑制 (non-maximum suppression, NMS) 技术能够过滤掉冗余或重叠的检测结果。NMS 确保只保留置信度最高和不重叠的边界框,得到更准确和紧凑的目标检测集合

目标检测算法在定位、多物体处理和细粒度分析等方面与图像分类存在差异:

目标检测 图像分类
定位 通过指定每个物体周围的边界框识别物体的存在并提供精确的定位信息 专注于将单个或多个标签分配给图像,而不是定位特定的物体
多目标处理 处理可能存在不同类别的多个物体的情况,算法旨在检测和分类每个单独的物体 整个图像分类为单个或多个类别
细粒度水平 通过提供有关图像内物体位置、大小和形状的详细信息,实现了细粒度分析,能够应用于下游任务如跟踪、计数或交互分析 算法仅提供对图像内容的粗略理解,没有精确的物体级别细节

图像分类算法能够将下图分类为猫,但无法提供准确的位置信息。

猫咪

将相同的算法输入到目标检测算法中时,能够提供更多详细信息。利用边界框能够精确定位图像中包含的物体。

目标检测

目标检测在需要识别和定位图像中特定物体的应用中至关重要,例如自动驾驶、监控系统、目标追踪和增强现实等任务。

5. 图像分割

图像分割将图像划分为有意义且语义连贯的区域,为图像中的每个像素分配一个标签,从而允许对物体边界及其在图像中的上下文进行细粒度理解。它可以实现物体的精确划定,准确理解它们的空间关系,并能基于分割区域进行后续分析和决策。
虽然图像分割和目标检测相关且有些相似之处,但它们是计算机视觉中的两个不同任务。图像分割专注于在像素级别将图像划分为有意义的区域,而目标检测旨在检测和定位具体的物体,并提供边界框。这两个任务有着不同的目标和应用,分割提供了详细的物体边界,而目标检测提供了物体定位和类别信息,语义分割任务侧重于在图像中标记和描绘物体的区域。

图像分割 物体检测
将图像分割为语义上有意义的区域,每个像素分配一个标签,重点是理解图像中物体的内部结构和边界 在图像中识别和定位特定的物体,识别物体的存在并为每个检测到的物体提供边界框坐标,重点是物体分类和精确定位
每个像素都分配一个特定标签的像素级掩码,结果是对物体边界和图像中不同区域之间关系的详细理解 一组紧密围绕着每个检测到的物体的边界框,以及与每个物体相关联的类别标签
对图像中物体边界和区域的详细理解 对图像中物体相对粗略的理解

有多种图像分割方法,每种方法都有其特点和权衡,常用技术包括:

  • 阈值分割:阈值分割是一种简单的分割技术,根据像素强度值将物体与背景分开。选择一个阈值,像素强度值高于阈值的像素被分类为物体或背景
  • 基于区域的分割:基于区域的技术根据指定标准(如颜色、纹理或强度的相似性)将像素分组成区域,常见算法包括分水岭变换、均值偏移聚类、图割、基于边的分割、基于轮廓的分割和基于深度学习的分割

图像分割广泛应用于需要详细理解对象及其边界的任务中,如医学图像分析、语义图像编辑和场景理解,能够精确分析对象形状、基于分割的跟踪以及内容感知的图像操作。

图像分割

接下来,简要讨论图像分割的两个子领域 ,即语义分割和全景分割。

  • 语义分割:语义分割是将图像中每个像素标记为相应的分类标签的任务,旨在基于对象类别将图像分割为语义上有意义的区域。与传统的图像分割方法不同,传统方法可能会将同一对象类别的不同实例分配不同的标签,而语义分割平等的对待同一类别的所有实例。语义分割提供了对图像的像素级理解,允许对对象边界及其空间关系进行详细分析,使得场景理解、自动驾驶和基于图像的推理等应用成为可能
  • 全景分割:全景分割旨在将实例级别和语义级别分割结合到统一的框架中,通过同时检测和分割实例级别的对象,并为包含多个对象的区域分配语义标签,为图像提供全面理解。在全景分割中,每个像素分配语义分割的类别标签,并单独识别对象实例。这意味着除了为单个对象提供详细的分割掩码外,全景分割还标记了存在多个对象的区域。全景分割的输出包括单个对象的实例掩码和包含多个对象的区域的语义标签,这些组件共同提供了对场景的完整理解,包括精确的对象边界和语义类别信息,全景分割与语义分割相比具有更高的挑战性

6. 字符识别

字符识别,也称为光学字符识别 (Optical Character Recognition, OCR),是计算机视觉的一个分支,专注于从图像或扫描文档中自动提取和识别文本字符。其目标是将字符的视觉表示转换为机器可读的文本。OCR 系统通常包含以下步骤:

  • 预处理:对输入图像或文档进行预处理,以增强文本的质量和清晰度。包含去噪、图像归一化和二值化(将图像转换为黑白)等操作
  • 文本定位:识别并定位图像中包含文本的区域。有助于将文本与图像的其余内容隔离开来,提高后续识别过程的效率
  • 文本分割:将单个字符彼此分开,将文本分割为其组成部分,独立识别每个字符
  • 特征提取:提取分割字符的相关特征,以创建适合识别的表示。包括形状、笔画宽度、轮廓或纹理等方面的特征
  • 分类:采用机器学习算法,基于提取的特征对每个字符进行分类。常用算法包括 SVM、k 最近邻 (k-NN) 和神经网络
  • 后处理:进一步优化和处理识别的字符,以提高准确性。应用语言建模、字典匹配和错误校正算法等技术增强识别文本的准确性

字符识别的目的是识别在图中表示的字符:

OCR

图像分类旨在将整个图像分类为预定义的类别,而字符识别侧重于识别和提取单个字符或文本元素。图像分类需要考虑图像的整体内容或上下文,而字符识别通过识别和分析单个字符处理更精细的细节。

小结

在本节中,介绍了计算机视觉中的常见任务。从讨论计算机视觉中的常见挑战开始,介绍了图像分类、检测和定位图像中对象、使用分割技术获取图像中的细粒度信息,最后讨论了光学字符识别。

系列链接

OpenCV计算机视觉实战(1)——计算机视觉简介
OpenCV计算机视觉实战(2)——环境搭建与OpenCV简介
OpenCV计算机视觉实战(3)——计算机图像处理基础


网站公告

今日签到

点亮在社区的每一天
去签到