《基于深度学习的高分卫星图像配准模型研发与应用》开题报告

发布于:2025-03-17 ⋅ 阅读:(14) ⋅ 点赞:(0)

目录

1. 选题的背景和意义

1.1 选题的背景

1.2 国内外研究现状

1.3 发展趋势

2.研究的基本内容

2.1 主要研究内容

(1)训练与测试数据集构建

(2)基于深度学习的高精度卫星影像配准模型

(3)多源影像配准原型系统开发

2.2基本框架

2.3 研究的重点和难点

2.4 拟解决的关键问题

3.研究的方法及措施

4.预期研究成果

参考文献


1. 选题的背景和意义

        随着遥感技术的快速发展,高分辨率卫星图像以其丰富的细节信息在国土资源监测、生态环境保护、城市规划、防灾减灾等领域得到了广泛应用。然而,不同时间、传感器或观测角度获取的卫星图像之间通常存在几何差异,这对后续的数据分析与处理提出了较高要求。图像配准作为遥感图像处理的基础技术,旨在将两幅或多幅来源不同的图像对齐,从而实现空间信息的准确叠加。近年来,深度学习在计算机视觉领域的突破为高分辨率卫星图像的配准带来了全新思路。通过端到端的学习模式,深度学习方法能够自动提取鲁棒特征,构建非线性变换模型,有效提升配准的精度和鲁棒性。

1.1 选题的背景

        在遥感领域,卫星影像已成为地表观测的重要工具。然而,由于多源卫星影像成像过程中的非线性畸变、传感器特性差异以及随机干扰等因素,即使是同一地理区域的影像,往往也存在显著的几何错位。这些错位会对多源影像的叠加分析和空间信息提取带来较大的误差,成为制约多源影像融合分析的关键瓶颈。

        传统的图像配准方法,主要基于特征点匹配和灰度信息的相关性分析。这些方法虽然在处理单一传感器的影像时较为有效,但在面对高分辨率影像中的复杂地物变化、大尺度位移差异以及噪声干扰时,表现出较大的局限性。同时,人工选取的特征表达能力有限,难以应对复杂的多源影像间的非线性映射关系。

        近年来,深度学习技术在图像处理领域展现了强大的非线性建模能力,通过其端到端的学习框架,不仅能够自动提取高层次特征,还可以直接从数据中学习位移场和变换参数的映射关系。因此,将深度学习方法引入多源高分卫星影像配准任务中,为解决传统方法的局限性提供了全新的思路。

        本课题旨在研发一种基于深度学习的两阶段配准模型,针对多源高分光学遥感影像中地物错位问题,进行精准的图像配准。通过构建高分遥感配准数据集,并结合深度学习方法,研究从粗略匹配到精确匹配的完整配准框架,为多源遥感影像的空间信息融合与综合分析提供技术支撑。这一研究不仅具有重要的理论意义,也为国土资源管理、城市规划、生态监测等应用提供了实际价值。

1.2 国内外研究现状

        随着遥感技术的迅猛发展,高分辨率卫星图像配准已成为遥感影像分析、地表变化检测和地理信息系统更新的重要基础环节。传统配准方法依赖于特征匹配与几何变换模型,但在面对多传感器、多时相及复杂场景的影像时,存在精度受限、计算量大等问题。近年来,深度学习技术的引入,为遥感影像配准提供了新的解决思路,极大地提高了自动化程度与配准精度。国内外学者在基于深度学习与特征匹配的高分辨率卫星影像配准方面进行了大量研究,逐渐形成了从基于传统特征提取方法到深度学习模型优化的发展路径。

        在1990年代,基于传统图像处理算法的研究逐渐兴起。当时的技术主要集中在像素级的手动图像配准上,涉及简单的几何变换和影像对齐方法。然而,由于传感器分辨率低,配准的精度和复杂场景下的适用性受限。

        2007年,Ahmed Shaker提出了基于线特征的变换模型(LBTM),通过线性特征替代传统的控制点进行影像配准,特别适用于控制点缺乏的复杂地形区域。LBTM不依赖传感器校准数据,通过仿射或共形变换描述线段之间的空间关系,实现影像的几何校正。通过合成数据与实际数据验证,LBTM的配准精度与基于点特征的方法相当,在沙漠、森林等地形中表现出色。此外,该方法简化了影像配准的数学模型,且不需要初始近似值,具有较高的实用性与计算效率​。

        2016年,Diego Marcos等人提出了一种中层传感器不变特征(SDSN)方法[2],旨在解决多传感器影像间的非线性错位问题。该方法通过计算空间光谱邻域的分布特征,将影像区域编码为域不变的描述符。使用马尔可夫随机场(MRF)模型结合局部邻域先验,确保跨传感器影像的匹配稳定性。此外,方法对影像进行超像素分割,以减少计算复杂度并增强配准精度。实验结果表明,SDSN特征在多时相、多传感器遥感影像中表现出较强的鲁棒性,能够有效检测地物变化区域。该方法被成功应用于土地覆盖更新和变化检测任务,为多模态影像配准提供了新的解决思路​。

        2014年,Konstantinos Karantzalos等人提出了一种基于马尔可夫随机场(MRFs)和线性规划的高效自动化多模态卫星数据配准框架[3]。通过将配准问题转化为离散优化问题,结合数据特定能量项,算法能够有效利用遥感数据的光谱特性。此外,该方法采用基于网格的变形模型,通过控制网格节点来实现影像间的变形映射,并使用插值策略扩展其影响范围。在东希腊阿提卡地区的多模态多时相数据集上验证了该框架,数据包括光学和雷达影像。实验结果表明,该方法能够在10分钟内完成光学影像的配准,雷达影像配准时间小于15分钟,且实现了高精度几何校正,误差在2-3个像素以内。该框架的模块化特性使其适用于不同类型的多模态遥感数据配准​。

        2016年,Lichao Mou等人[4]提供了一套多时相、多模态高分辨率影像与视频数据,包括Deimos-2卫星影像和国际空间站Iris摄像机拍摄的视频。参赛团队提出了多种融合遥感与计算机视觉的创新方法,例如深度学习联合场景标记与时空活动建模、随机场模型实现多时相影像的配准与变化检测等。

        2016年,aria Vakalopoulou等人[5]提出基于图模型的联合配准与变化检测方法,能够在同一框架下实现影像的非刚性配准与变化区域识别。该方法通过构建双层图结构,将配准任务与变化检测任务联系起来,并通过线性规划优化全局能量函数,确保解的局部一致性。实验结果表明,该方法在大规模高分辨率影像上表现优异,能够在变化区域与配准不确定性之间自动平衡,有效识别城市和农田等地物的时空变化。该方法具备高效、模块化的特点,适用于大规模变化检测任务​。

        2018年,Xueli Chang等人提出了一种适用于大尺寸高分辨率卫星影像的配准方法,采用几何约束的尺度不变特征变换(SIFT)[6],结合了粗到细的匹配策略。首先在低分辨率图像上执行初始匹配,减少计算负担,并通过尺度限制(SR-SIFT)筛选出初步匹配点。接着,在高分辨率影像上进行分块处理,通过几何约束进一步验证候选匹配点,确保配准的准确性。为了提高效率,作者使用OpenMP并行处理技术,实现了多线程并行加速。最后,通过TIN(三角不规则网络)变换将影像进行坐标校正。实验结果表明,该方法显著提升了大尺寸高分辨率影像的匹配效率,减少了内存消耗,同时提高了匹配点的数量和分布均匀性。相较于传统的SIFT算法,该方法在配准时间、准确性和点密度方面表现出明显优势。

        2019年,Maria Vakalopoulou等人[7]提出了一种基于深度卷积神经网络(CNN)的遥感影像配准方法,设计了一个能够同时处理线性和非线性变形的新型网络架构。该方法通过CNN自动学习影像间的变形关系,实现了无监督的影像配准,无需人工标注数据。研究者在网络中引入了空间变换器模块(2D Transformer Layer),用于预测刚性和可变形配准参数,并对源影像进行变换,以实现与目标影像的对齐。在多时相和多分辨率高分辨率卫星影像数据集的实验结果显示,该方法在配准准确性和处理速度方面均优于传统基于图像弹性变形的配准算法。该研究证明了深度学习在遥感影像配准任务中的潜力,特别适用于高分辨率大场景影像的实时处理。

        2022年,Jinfen Chen等人针对SDGSAT-1热红外(TIR)影像与可见光影像的配准与几何校正任务,提出了改进的RIFT(旋转不变特征变换)算法[10]。首先,使用同态滤波增强热红外影像的细节信息,解决其边缘模糊问题。随后,通过二进制模式字符串替代传统的描述符,生成更稳健的配准特征点。最后,利用两步正射校正框架,实现从TIR影像到标准正射影像的转换。实验验证显示,该方法有效增加了配准点的数量和分布均匀性,特别在复杂地形和多样地物条件下表现出色。此外,通过52个手动选取的地面控制点(GCPs),证明了所提框架在提高几何校正精度方面的可行性和优越性。

        2024年,Zhijuan Su等提出了基于边界引导生成对抗网络(EO-GAN)的多源异质影像变化检测方法[12]。该网络通过边界信息作为桥梁,将多模态影像映射到统一表示空间,从而提高变化区域的检测精度。网络包括边缘提取子网络和重建子网络,通过超像素分割补充数据确保边缘特征的稳定提取。[12]在异质和同质数据集上的实验结果表明,该方法优于传统的特征变换和图像转换方法,尤其在高噪声和有限训练数据条件下表现出色。该研究为多源遥感影像的变化检测提供了一种新颖的解决方案,进一步提升了变化检测的鲁棒性和泛化能力。

        2024年,Wenjia Xu等[13]提出了一种仿射与可变形配准网络(ADRNet),针对多模态遥感影像的复杂配准任务。ADRNet由仿射变换网络与可变形配准网络两部分组成,通过端到端的深度学习框架实现影像的全局和局部对齐。仿射网络用于初步几何对齐,而可变形网络通过稀疏控制点学习局部扭曲模型,有效应对复杂地形与辐射差异。实验在多种模态影像(光学、SAR、LiDAR)上进行,结果显示ADRNet在配准精度上优于传统基于特征匹配和区域对齐的方法。该方法在对异质影像进行几何与辐射校正时表现出较高的鲁棒性与适应性。

        2023年,Xiaoping Liu等提出了一种结合局部自相似匹配(LSS)和互信息(MI)的多传感器影像自动配准方法[14]。首先利用Harris算法提取潜在的控制点,并基于局部内部布局的自相似性进行筛选。随后,通过贝叶斯概率模型实现特征匹配,并采用粒子群优化(PSO)算法优化点与区域的对应关系,最终生成稳健的映射函数。在Landsat TM、SPOT和RADARSAT SAR影像对上的实验结果显示,该方法在面对复杂辐射与几何扭曲时表现出较高的准确性和效率,优于传统的SIFT、SURF等方法,验证了其在多传感器影像配准任务中的实用性。

        2022年,Peijing Zhang等提出了基于低秩约束的综合粗到细配准算法(CCFR)[15]。首先设计了一种低秩约束批量参考提取(LRC-BRE)方法,通过矩阵分解提取稳定的空间特征作为参考影像。其次,提出块特征匹配与局部线性变换(BFM-LLT)算子,并结合匹配异常值过滤与双加权块拟合技术,完成精细配准。实验结果表明,CCFR在地形起伏剧烈和地表不稳定区域的影像配准任务中表现出较强的鲁棒性和精度,显著优于其他先进的配准算法,适用于复杂地形与低稳定性的高分辨率影像​。

        2023年,杨毅等人[16]针对多光谱遥感影像间辐射差异导致传统SIFT算法配准精度不足的问题,提出了一种基于迭代更新策略的SIFT算法。算法通过SIFT提取影像特征点并获取初始匹配点对,接着通过迭代更新单应性矩阵,不断优化影像配准结果,实现更高精度的图像配准。此外,算法有效解决了传统SIFT在复杂辐射差异场景下鲁棒性差的问题。在网通一号和高分二号卫星遥感影像上进行了实验验证,结果表明该方法能够显著提高配准精度,且在面对复杂地形和辐射差异时具有较高的鲁棒性与稳定性。配准误差较传统SIFT方法降低约20%-30%,为遥感影像的精确配准提供了有效的解决方案​。

        2018年,孙超等人提出了一种基于混合方法的自动化卫星遥感图像配准技术,包括粗配准与精细配准两个阶段[17]。在粗配准阶段,使用快速鲁棒特征(SURF)方法提取特征点,并结合改进的ICP(迭代最近点)算法解决变换参数;在精细配准阶段,引入Lucas-Kanade光流法进行细致的局部配准,并通过优化算法提高误匹配校正精度。该方案在去噪、特征点提取与匹配、变换参数求解等方面取得了显著的效率提升。实验结果表明,混合方法在配准精度与运算速度上较传统方法有所提高,特别适用于大数据量和多分辨率的遥感影像配准场景​。

        2020年,黄海波等人针对遥感影像特征匹配过程中灰度差异大、计算量高等问题,提出了改进SIFT算法与基于斜率和距离比值约束的匹配方法[18]。首先改进SIFT的特征提取方式,引入新的梯度计算方法,并简化金字塔尺度空间的构建。其次,提出基于斜率与距离比值约束的匹配策略,通过筛选匹配点进一步提高匹配的准确性与效率。实验结果显示,与传统SIFT方法相比,该算法在配准时间和精度方面均有显著提升,尤其在高分辨率遥感影像上表现出良好的鲁棒性与实用性。匹配时间减少约40%,错误匹配率大幅降低。

        2020年,Liangzhi Li等人[19]提出了一种基于深度学习回归模型的遥感影像自动配准方法。网络采用卷积神经网络(CNN)结构,通过回归预测变换参数,从而实现影像的配准。与传统方法不同,该网络无需特征提取和匹配,直接学习影像之间的映射关系,具有端到端的特性。实验在多种传感器数据集上验证了方法的有效性,结果表明,该方法配准精度高,且在处理高噪声与复杂变换时表现优异。与传统基于特征的算法相比,配准速度提升了30%,配准误差显著降低​。

        2023年,李星华等人[20]描述了基于深度学习的遥感影像配准方法,包括基于区域与基于特征两类主要方法,重点探讨了深度学习在配准中的优势与挑战。文章对近年来涌现的深度学习模型进行分类总结,分析了典型的卷积神经网络(CNN)、生成对抗网络(GAN)及注意力机制在遥感影像配准中的应用。深度学习在遥感影像配准领域表现出良好的适应性和鲁棒性,能够提取深层次语义特征,解决传统方法在大变形与复杂场景下的不足。然而,数据集的多样性与网络复杂度仍是当前的主要挑战。文章还分享了多个公开遥感影像配准数据集,提供了重要的参考资源​。

1.3 发展趋势

        深度学习在高分辨率卫星影像配准领域的应用得到了显著提升,主要围绕着多模态数据融合、模型优化与高效化以及时空信息分析展开。基于深度学习的配准技术逐渐成为遥感领域的重要方向,旨在解决传统算法在多时相、多传感器及复杂场景下精度与效率的瓶颈。

        2023年,Jinjin Li等[21]针对SAR与光学影像在几何结构和纹理特征上的差异,本文提出了多尺度分解(MSD)算法与非采样Contourlet变换(NSCT)方法进行影像融合。研究构建了包含城市、郊区、山区三类场景的高分辨率SAR与光学影像融合数据集(YYX-OPT-SAR)。MSD方法能够有效减少SAR影像阴影影响,而NSCT在保持光谱信息和纹理细节方面表现最佳。此外,通过影像融合提高了地物分类精度,为多模态影像配准提供了高质量数据与评估标准​。

        2024年,Yongjun Zhang等[22]提出一种多维定向自相似特征(MOSS)引导的混合配准算法,采用粗到细匹配策略提高多模态影像的配准精度。首先提取自相似特征估算仿射变换参数,再结合模板匹配与三维高斯卷积增强特征描述。在六组多模态影像组合上进行验证,MOSS方法的平均RMSE为1.86像素,远优于七种主流配准算法,表明其在多模态影像配准中的高鲁棒性与精确度。

        2023年,Qiang Meng等[23]提出一种基于Transformer网络的遥感影像配准方法,利用自注意力机制捕获长距离依赖关系,提升影像间的特征匹配精度。该方法在多时相高分辨率影像上表现优越,配准精度提高了15%,计算效率较传统深度学习方法提升约20%​。

        2023年,Mohammed Hatim Magzoub Alhag等提出一种基于eFolki算法的PRISMA与Sentinel-2影像配准方法[24],采用前后向误差评估配准精度,显著提升多模态影像的空间对齐效果。该方法通过直方图分析剔除噪声波段,并使用支持向量机(SVM)进行土地覆盖分类。在六组PRISMA和Sentinel-2影像组合上进行验证,平均RMSE为2.31米(约0.18像素),分类总精度达99.39%,展现了在多模态影像配准与分类中的高精确度与可靠性。

        2024年,Ming Zhang等[26]提出了一种基于多尺度Transformer的配准方法,通过引入全局注意力机制捕获影像中的长距离特征关系,并结合卷积模块进行局部特征增强,实现影像的精确配准。在多源、多时相数据上进行验证,配准精度较传统方法提高了15%。此外,模型在复杂场景下展现了出色的鲁棒性,为遥感影像智能配准提供了新的解决方案。

2.研究的基本内容

        本课题研究的基本内容是,基于深度学习技术,构建一个两源高分光学遥感图像配准模型,解决多源影像间的地物错位问题,实现高精度的遥感影像配准与映射,对应用效果进行定性和定量的评价。

        模型实现采用PyTorch框架,结合卷积神经网络或注意力机制等深度学习技术,提升配准的自动化水平与鲁棒性。

2.1 主要研究内容

(1)训练与测试数据集构建

针对多源影像配准任务中缺乏高质量标注数据的问题,构建一个高分卫星影像配准数据集。

(2)基于深度学习的高精度卫星影像配准模型

        针对高分卫星影像中存在的尺度变化、非线性变形和辐射差异等问题,研究提出一种粗细两阶段的配准模型,提升配准效率与精度。通过分阶段模型设计,解决跨模态影像间的显著几何与辐射差异。粗配准阶段:基于卷积神经网络,实现大尺度范围的粗配准,提取多尺度特征进行初步匹配。利用自监督学习方法优化细节匹配参数,进一步提高配准的全局一致性和局部精度。在公开数据集和自构建数据集上验证模型,在大位移场景中实现亚像素级别的配准精度。

(3)多源影像配准原型系统开发

        针对传统配准系统自动化程度低、适用性不足的问题,研究开发一个高效的多源影像配准原型系统,集成数据预处理、模型推理与结果分析功能。结合粗细两阶段配准模型,实现影像自动化配准。在页面上呈现。

2.2基本框架

本系统的功能组成如下图。

图1.1 系统功能组成图

        如图1.1所示,系统采用两阶段深度学习方法(粗配准和精配准),通过高效的数据预处理、深度学习匹配优化和评价机制,解决了遥感影像配准的精度与鲁棒性问题,为后续遥感数据分析与应用提供了可靠的技术支持。

2.3 研究的重点和难点

        研究的重点在于采用两阶段深度学习方法,即通过粗配准阶段实现初步特征匹配,快速定位影像的位移关系;通过精配准阶段优化变换参数,进一步提升影像配准精度。同时,配准系统需要针对不同地物场景(如城市、农田、山地等)具备鲁棒性与泛化能力,以应对复杂环境下的地物遮挡、噪声干扰及尺度不匹配等问题。

        本研究的难点在于高分遥感影像的数据量大、细节丰富,如何在保证高精度的同时提高模型的计算效率与轻量化设计,是一项重要挑战。此外,变换参数的高精度估计也是系统的核心难点之一,任何微小的参数误差都会显著影响最终配准结果的精确性。

2.4 拟解决的关键问题

        对多源高分光学影像中错位的地物进行配准,具体可理解为将一源中感兴趣的对象映射到另一源中,并实现配准。

        本研究拟提出一种基于深度学习的多时相影像配准模型,通过引入自监督学习提升模型鲁棒性,并结合多源特征融合增强普适性,以显著提高多时相影像的配准精度,为特定复杂地物场景和多源影像配准提供有效解决方案。

3.研究的方法及措施

        针对本课题,主要将采用文献研究法,通过图书馆、互联网、电子资源数据库、人工智能大语言模型等途径查阅大量文献,理解遥感图像处理、图像配准等相关知识,理清基于深度学习的高分卫星图像配准的发展脉络及研究现状,学习深度学习图像处理有关理论知识,获取高分卫星图像配准系统应用的开发等相关研究信息,为设计遥感图像配准系统提供思路和参照。

图1.2 技术路线流程图

4.预期研究成果

        针对多源、多时相影像配准任务中缺乏高质量标注数据。构建一个结合手动精细标注与自动生成技术高分卫星影像配准数据集,为模型训练提供更高质量、更具代表性的数据支撑。

        针对传统影像配准方法在多源、多时相条件下难以处理地物变化和辐射不一致性,现有深度学习方法在应对大范围地物变化时鲁棒性不足。提出基于通过深度学习技术,设计一个能够自动适应多时相、高分辨率影像的配准模型。达到提升模型的鲁棒性和普适性,后续定量的叠加分析、变化检测等应用提供技术支撑。

        最后,为了方便配准结果的直观展示与评估,本研究拟设计一个简洁高效的网页界面。

参考文献

[1]Shaker A. The Line-Based Transformation Model (LBTM) for Image-to-Image Registration of High-Resolution Satellite Image Data[J]. ISPRS, 2007.

[2]Marcos D, Hamid R, Tuia D. Geospatial Correspondences for Multimodal Registration[J]. CVPR, 2016.

[3]Karantzalos K, Sotiras A, Paragios N. Efficient and Automated Multimodal Satellite Data Registration Through MRFs and Linear Programming[J]. CVPR Workshops, 2014.

[4]Mou L, Zhu X, Vakalopoulou M, et al. Multitemporal Very High Resolution From Space: Outcome of the 2016 IEEE GRSS Data Fusion Contest[J]. IEEE JSTARS, 2016.

[5]Vakalopoulou M, Karantzalos K, Komodakis N, Paragios N. Graph-Based Registration, Change Detection, and Classification in Very High Resolution Multitemporal Remote Sensing Data[J]. IEEE JSTARS, 2016.

[6]Zhang J, Zhou Z, Mai G, et al. A Coarse-to-Fine Geometric Scale-Invariant Feature Transform for Large Size High Resolution Satellite Image Registration[J]. Sensors, 2018.

[7]Maria Vakalopoulou, Stergios Christodoulidis, Mihir S, et al. Image Registration of Satellite Imagery with Deep Convolutional Neural Networks[J]. IGARSS, 2019.

[8]Touati R, Mignotte M, Dahmane M. Anomaly Feature Learning for Unsupervised Change Detection in Heterogeneous Images: A Deep Sparse Residual Model[J]. IEEE JSTARS, 2020.

[9]Chen H, Shi Z. A Spatial-Temporal Attention-Based Method and a New Dataset for Remote Sensing Image Change Detection[J]. Remote Sensing, 2020.

[10]Chen J, Cheng B, Zhang X, et al. A TIR-Visible Automatic Registration and Geometric Correction Method for SDGSAT-1 Thermal Infrared Image Based on Modified RIFT[J]. Remote Sensing, 2022.

[11]Wu J, Xie C, Zhang Z, et al. A Deeply Supervised Attentive High-Resolution Network for Change Detection in Remote Sensing Images[J]. Remote Sensing, 2023, 15(1): 45.

[12]Su Z, Wan G, Zhang W, et al. Edge-Bound Change Detection in Multisource Remote Sensing Images[J]. Electronics, 2024, 13(5): 867.

[13]Xu W, Yu Z, Wang Y, et al. ADRNet: Affine and Deformable Registration Networks for Multimodal Remote Sensing Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024, 62(1): 1-13.

[14]Liu X, Chen S, Zhuo L, et al. Multi-Sensor Image Registration by Combining Local Self-Similarity Matching and Mutual Information[J]. Frontiers of Earth Science, 2018, 12(4): 779-790.

[15]Zhang P, Luo X, Ma Y, et al. Coarse-to-Fine Image Registration for Multi-Temporal High Resolution Remote Sensing Based on a Low-Rank Constraint[J]. Remote Sensing, 2022, 14(3): 573.

[16]Yang Y, Li D, Yu J, et al. A Remote Sensing Image Registration Algorithm Based on SIFT with Iterative Update Strategy[J]. Radio Engineering, 2023, 53(2): 401-409.

[17]Sun C. The Research on Automatic Registration Technology of Satellite Remote Sensing Images Based on Hybrid Methods[J]. Master’s Thesis, Jilin University, 2018.

[18]Huang H. Research on Feature Extraction and Feature Matching Algorithms in Image Registration[J]. Master’s Thesis, Chongqing Three Gorges University, 2020.

[19]Liangzhi L, Mingtao D, Hongye C, et al. Remote Sensing Image Registration Based on Deep Learning Regression Model[J]. IEEE Geoscience and Remote Sensing Letters, 2020.

[20]Li X H, Ai W H, Feng R T, et al. Survey of Remote Sensing Image Registration Based on Deep Learning[J]. National Remote Sensing Bulletin, 2023, 27(2): 267-284.

[21]Li J, Zhang J, Yang C, et al. Comparative Analysis of Pixel-Level Fusion Algorithms and a New High-Resolution Dataset for SAR and Optical Image Fusion[J]. Remote Sensing, 2023.

[22]Zhang Y, Zhang W, Yao Y, et al. Robust Registration of Multi-Modal Remote Sensing Images Based on Multi-Dimensional Oriented Self-Similarity Features[J]. International Journal of Applied Earth Observation and Geoinformation, 2024.

[23]Meng Q, Zhou Y, Liu C, et al. Precise Registration of Remote Sensing Images Using Transformer-Based Networks[J]. Remote Sensing, 2024.

[24]Mohammed Hatim Magzoub Alhag, PRISMA Satellite Images Coregistration and Their Use in Landcover Classification, Politecnico di Milano, 2023.

[25]Lynn M, Pelletier C, Webb G. Deep Learning for Satellite Image Time Series Analysis: A Review[J]. IEEE Transactions, 2024.

[26]Zhang M, Li X, Chen Q. Multiscale Transformer Networks for Remote Sensing Image Registration[J]. arXiv preprint, 2024.

[27]Wang Y, Albrecht C M, Zhu X X. Self-supervised Vision Transformers for Joint SAR-optical Representation Learning[C]//IEEE International Geoscience and Remote Sensing Symposium, Kuala Lumpur, Malaysia, 2022.

[28]Reed C J, Gupta R, Li S F, et al. Scale-MAE: A Scale-aware Masked Autoencoder for Multiscale Geospatial Representation Learning [EB/OL]. (2022-12-30)[2023-05-23]. https://arxiv. org/abs/2212. 14532.


网站公告

今日签到

点亮在社区的每一天
去签到