单视角相机自校准

单视角相机自校准

一、单视图摄像机自标定(论文文献综述)

田俊英,伍济钢,赵前程[1](2021)在《视觉系统中摄像机标定方法研究现状及展望》文中指出摄像机标定是视觉系统中最为基础的环节,它利用摄像机成像原理来求解摄像机模型的内外参数,以便更好地实现视觉系统在实际中的应用。通过分析摄像机标定的特点,并结合国内外摄像机标定的发展现状,根据标定目标的空间维度将其分为三维标定、二维标定、一维标定和零维自标定方法。本文介绍了各摄像机标定方法的起源及发展,详细分析了各摄像机标定方法的基本原理,归纳总结了各类标定方法存在的优势与不足之处,并对标定技术的发展趋势做出了预测。在复杂的场景与运算量大的情况下,要以高精度、高效率、高鲁棒性等为主要研究内容,来进一步扩大适用范围、加强实用性,同时也要考虑到摄像机标定的成本问题,找出更合适的标定方法。

王钊[2](2020)在《基于单视图三维重建研究》文中研究说明自深度学习网络作为工具诞生以来,许多难以处理的图像以及图形学问题有了新的突破口。且在识别、分割等领域,基于深度学习的方法已经能在工业界成熟运用。单视图三维重建问题也因此得到的新的发展,然而即使与传统方法相比,深度学习已经带来了很大的提升,但是单视图三维重建问题依然有着极大的研究空间。本文以单视图三维重建为研究课题,着重分析了单视图三维重建问题目前存在的主要问题,提出了可行的改进方案,加以实验并验证。主要成果可且分为三个部分:符号距离场的预测、相机位姿估计、模型转化及后处理。符号距离场的预测网络受DISN的启发提出,为提高三维重建的精度、解决模型分辨率受限等问题,本文放弃了体素和点云等容易处理显式表达方式,采用了三维模型隐式的符号距离场(SDF)表达,将三维重建问题转换为符号距离场函数的预测问题。模型不仅提取图片的全局特征,同时将三维点按相机内参进行投影到2D图像上进行局部特征的提取。并且,针对DISN中局部特征提取过于局限的问题提出了ReSampler模块进行改进。最后,将全局特征、局部特征与空间点编码结合后,最终的重建结果的预测精度得到了一定程度的提高。可视化方面,在较薄的面和孔洞等细节方面模型表现出了更好的竞争力。在损失函数方面,模型使用符号距离函数的GroundTruth与预测值代替倒角距离(CD)、铲土距离(EMD)。相比于CD与EMD作为训练损失只能近似衡量模型的相似性,SDF能准确衡量模型的相似程度。详解位姿估计网络的作用是从给定的图像中估计拍摄的视角,网络扩展了符号距离场预测网络的应用场景。尽管互联网存在的大量物体图片,但其中具有相机位姿标记的数目微乎其微。为给符号距离场预测网络的局部特征提取提供相机位姿信息,本文提出了一个简易的基于单张图片的相机预测网络。网络主干采用VGG网络,训练数据来自ShapeNet Core数据集。我们将ShapeNet Core数据集的初始位姿作为基准位姿,在此基础上进行旋转变换作为训练数据。相机内参的预测使用更为连续的6D旋转表达,而不是传统的四元数或欧拉角,以加快网络的收敛和提高回归的准确率。后处理的主要作用是处理符号距离场预测错误导致的杂散的离群的物体。文中提供了两种处理方式可供选择:基于体素的神经网络的处理方式,采用普遍的编码器-解码器结构设计,以预测重建后的体素模型作为训练样本,真实模型作为GroundTruth进行训练。网络解决了离群物体,同时平整了模型表面并强化细节。但由于模型在体素下进行,受体素表达方式的影响,分辨率会被限制。另一种算法基于广度优先搜索的方法设计,利用模型点与点之间的关联将空间中不同的物体分割并对重建错误进行去除,这种方法可以处理网格或体素数据。上述两种方法都没有基于点云的处理方案,点云数据的获取可以通过处理后的网格数据转换得到。

李云雷[3](2020)在《基于近景工业摄影的光学三维形貌测量关键技术研究》文中提出光学三维形貌测量在工业产品检测、逆向工程、文物保护、生物医学建模、虚拟现实等众多领域的需求日益增加。传统的接触式三维测量技术已经不能满足要求,物体的三维特征点坐标、三维几何尺寸和三维表面形貌的高精度、高效获取成为测量领域的研究热点和前沿课题。本文针对目前光学三维形貌测量研究中在测量精度和效率、测量范围以及评价标准等方面仍然存在的若干不足,采用理论分析和实验研究相结合的方法,综合机械工程、光学、电子学、近景工业摄影测量、计算机视觉和数字图像处理等多个学科对光学三维形貌测量关键技术进行系统、深入研究。主要研究内容和研究成果如下:1.阐述了各类光学三维形貌测量技术的原理和特点,对基于近景工业摄影测量的光学三维形貌测量技术的研究现状和发展趋势进行了系统分析。研究了近景工业摄影测量和机器视觉中的坐标系转换、共线方程、共面方程、极线几何约束及基础矩阵、三维重建方法等。针对近景工业摄影测量中传统光束平差算法耗时长的问题,提出一种快速光束平差算法,将步长分解为摄站位姿参数步长、三维点坐标参数步长两部分,利用雅克比矩阵的稀疏性,提高平差效率。上述内容为本文的研究工作提供基本的理论依据。2.为了提高近景工业摄影测量中的摄像机标定精度,设计了高精度的大尺寸棋盘格作为标定靶标,分析了采用单应性矩阵和非线性优化的标定算法,并给出一种迭代式的畸变矫正方法。考虑镜头自动对焦对摄像机内参数的影响,提出一种分层式摄像机标定方法。依据拍摄距离远近对摄像机分层标定,获得多组摄像机的内参数。基于光栅尺的验证实验表明,分层式标定方法能够显着提升光学三维测量的精度。3.为了解决多面体、回转体以及大型面结构特征物体的光学三维形貌测量中出现的多基线、大倾角的摄站定向问题,提出了两种定向算法,并专门设计了两种定向装置。算法一是基于共面点的绝对定向,该算法是基于共面点的物方平面与其像平面之间的单应性矩阵确定摄站的位姿,仿真实验验证了算法的正确性,并分析了像素噪声水平对定向精度的影响。算法二是混合式相对定向,该算法通过本质矩阵分解获得两个摄站位姿参数的初值,再采用非线性优化求取精确解,当两个摄站处在各种复杂位姿关系时,均能实现正确定向。两种定向装置分别是立体定向靶标和移动式平面定向靶标,它们适用于具有多面体、回转体和大尺寸型面等结构特征物体的三维形貌测量,主要作用是确立摄站位姿和局部点云拼接。4.针对传统近景摄影测量中粘贴人工标志提取三维点方法的费时耗力、点云数据稀疏等不足,提出了两种高效便捷的三维点光学提取技术,即点阵结构光和光学探针。点阵结构光技术获取物体表面的稠密三维点云,其投影图案设计成密集排列的发光圆点矩阵。提出一种灰度指数加权法,精确提取结构光图像中圆点中心的像素坐标。针对结构光图案的特征,提出一种串珠式匹配算法,融合基于极线约束的三幅像片匹配算法,精确实现点阵的逐行逐列排序。光学探针技术用于物体表面遮挡区域、深孔及凹槽等部位单个三维点的提取,标定了测头在探针自身坐标系下的精确三维坐标。摄像机位置固定时,在1800mm?1200mm的视场范围内,光学探针用于距离测量的相对精度约为7?1 0-5。5.在上述理论和技术的研究基础上,研制了基于立体定向靶标、移动式平面定向靶标的三维形貌测量系统和基于立体定向靶标的探针式多视场三维形貌测量系统。针对大口径卫星天线、空客A380飞机模型、多面体结构的实体模型、具有大型面结构以及含有遮挡区域等特征的工业产品,进行了三维形貌测量实验和数据分析,并取得良好的应用效果。

朱昊[4](2019)在《复杂先验驱动的三维重建研究》文中进行了进一步梳理随着近年来影视制作、虚拟现实、三维打印、自动驾驶、智能医疗等产业的发展,三维模型的需求出现爆发式增长,传统的手动建模方法远远无法满足这一需求,准确高效的三维重建方法成为解决这一问题的关键。被动式三维重建方法通过特征匹配或模板适应的方式从图像或视频中恢复三维模型,然而由于图像和视频中的结构特征具有稀疏性和歧义性,传统方法难以精确、鲁棒地重建出三维模型。先验知识的引入为三维重建问题提供了有力约束,显着提升了三维重建方法的精度和鲁棒性。本文围绕先验信息在三维重建方法中的应用展开研究,提出了复杂先验驱动的三维重建方法。传统先验反映较为较为泛化的特征,如平滑先验、轮廓先验等。与之相对的复杂先验反映更为抽象和针对性的信息,如限定目标为人体、人脸、建筑等具有深层一致性特征的对象。复杂先验信息的运用能够提高三维重建算法的精度、速度和鲁棒性。近年来,深度学习方法的发展使得复杂先验能够以数据驱动的方式自动获取,进一步提升了三维重建方法的最高精度。本文的主要研究工作和创新点包括:1.提出了一种鲁棒的单目视频室外人体三维重建方法。该方法结合代价空间方法和深度优化方法,通过一段视频重建出完整的人体模型。该方法对目标人体抖动具有较高的耐受性。在点云融合阶段,该方法将自动检测出冲突区域,并用迭代的方式对多视点点云进行调整,使得点云收敛成为封闭面片结构。该方法在多视点重建框架中融合多元先验信息,有效降低了室外场景中人体三维重建的误差。2.提出了一种分层预测网格变形的框架,从单张图像重建精细人体模型的方法。该方法结合了参数化预测方法和自由网格变形方法的优点,提出了逐层反馈的结构,每一层以输入图像和上一层投影结果作为输入,采用一个卷积神经网络在二维空间中预测三维模型的外形变化。通过定义不同层级的操控点,将外形变化分成姿态级别、锚点级别和顶点级别三个层次,并采用拉普拉斯网格变形的框架对三维对象进行优化。实验证明本方法提升了重建三维模型的精度,在WILD数据集的评估中相比已有的最优方法有近20%的精度提升。3.提出了一种面向人体的虚拟视点图像生成方法。在已有的光流变形预测网络的基础上,该方法提出了引入三维外形信息作为中间预测,从而将原有的光流预测问题解析成两部分:三维外形预测与光流优化。该方法将包含人体姿态变化的解空间分解成为两个小型子空间,使整个神经网络更为高效地记忆和解释新视点图像化成问题。实验表明卷积神经网络难以精确拟合逐像素的投影和逆投影运算,为此该方法引入投影层为光流预测和外形预测之间建立了高效的转换通道。该方法提升了虚拟图像的估计精度,在PVHM数据集的测试中有约15%的精度提升。上述理论和方法在通过视频、单视图的人体三维重建以及新视点虚拟图像生成问题上取得重要进展。在应用系统方面,本研究设计和实现了高精度面部三维重建系统,该系统结合多种先验对面部进行精细的三维建模,己被应用于真人动画电影的拍摄。本研究设计和实现了单相机转台三维重建系统,在保证高精度的同时降低了硬件成本,该系统已被应用于文物的数字化重建和展示。

王安杰[5](2019)在《基于视觉SLAM的物体深度信息估计》文中提出即时定位与地图构建技术(Simultaneous Localization And Mapping,SLAM)是机器人视觉的核心技术,常用于机器人运动过程中的环境感知和导航,是实现全自主移动机器人的关键。视觉相机作为传感器具有信息量大、灵活性高、成本低等优点,使得基于视觉的SLAM研究具有十分重要的意义。但在诸如机器人导航、避障、自动驾驶等实际SLAM应用场景中,视觉相机获取的二维图像由于缺少深度信息,无法提供目标准确的三维位置、大小、方向等,在应用上受到极大限制。因此,基于二维图像的深度信息估计对于视觉SLAM的应用具有重要意义。本文主要研究如何直接从二维图像中获取深度信息的问题。相对传统算法,卷积神经网络(Convolutional Neural Networks,CNN)通过学习一个非线性预测函数,将图像直接映射到场景的深度图,获得了最好的深度估计性能。最近的工作大都通过对神经网络进行有监督训练来获取深度,实验结果也证明了其在视图深度估计中的有效性,但这类方法被限制在大量图像及其对应像素深度真值信息的获取上。因此,本文提出的算法为无监督学习,在无需深度真值信息的情况下,将计算机视觉领域的一些传统的图像处理方法融入到深度学习框架中,实现了超越目前经典算法的性能。本文的主要创新点和贡献总结如下:1.针对单目视频序列,提出了一种视图合成与感知损失相结合的非监督学习框架,在为深度估计任务训练的转换网络中,将低层次的像素信息误差损失与预先训练的损失网络提取到的高级特征的感知损失进行联合作为总的损失函数,对神经网络进行反馈调节,实验结果表明,该网络框架在单一图像深度预测评估中,性能取得了显着的提升。2.对于深度估计中单目视频序列固有的尺度模糊问题,提出了一种使用双目立体视频序列进行联合学习的解决方案。通过利用立体图像对之间已知的姿态解决深度估计尺度模糊问题,对单视图深度估计器和位姿估计器同时进行训练,将场景深度和摄像机运动限制在共同的真实世界比例中,同时通过位姿网络进行帧到帧之间没有尺度模糊的位姿估计,为直接视觉里程计(Direct Visual Odometry,DVO)提供良好的初始位姿并进行位姿优化,最后使用空间和时间一致性约束,对深度及位姿进行联合优化。3.在单双目深度估计工作的基础上引入生成对抗网络(Generative Adversarial Network,GAN)中的对抗学习方式(Adversarial Learning,AL)对深度估计与视觉里程计进行进一步优化,将深度与位姿估计网络联合起来作为生成器,一个卷积网络与Flatten操作结合的联立网络作为鉴别器,鉴别器的损失函数采用cGAN(Conditional GAN)和WGAN-GP(WGAN Gradient Penalty)的结合改进版,将传统鉴别器的二分类任务转换为回归任务来处理,更适合深度估计任务的特性,同时本文通过在视点合成上的应用,验证了深度图的合理性,取得了良好的主观效果。

王力[6](2016)在《基于全景影像序列的球面立体视觉多视图几何模型研究》文中提出按照计算机球面立体视觉的多视图几何约束原理所构建的虚拟球面成像模型,本文称之为球面立体视觉多视图几何模型。基于多视几何理论的球面立体视觉系统的本质性研究工作,就是构建基于全景影像序列的球面立体视觉多视图几何模型。本文在对计算机立体视觉的理论基础、基本矩阵和三焦点张量的稳健性估计、基于多视图几何约束的像点匹配算法研究、基于多视几何约束的非线性畸变校正、基于影像序列的相机自标定等相关基础理论分析、算法模拟及实验评定的基础之上,以全向多镜头组合型全景相机所获得的全景序列影像为研究对象,以球面立体视觉理论为出发点,从“物理成像模型、几何约束模型、数学参数模型、系统误差模型和误差传递模型”五个方面系统性地论述与构建了基于全景影像序列的球面立体视觉多视图几何模型。同时,提出了一种基于全景影像序列的球心矢量算法(GV),完善并丰富了球面立体视觉系统的理论内涵与外延应用范畴。最后,针对OMS型全景相机,以球面立体视觉多视图几何模型为基础,在理想全景球面成像模型下,以球心矢量算法为主线,实验验证了70帧全景序列影像的投影重构算法的有效性,生成大量点云数据并最终实现了真实场景空间目标的三维重构。本文依此所做的主要工作和主要结论如下:(1)从射影几何变换、立体相机成像模型及多视图几何理论为出发点,详细阐述了计算机立体视觉的理论基础。重点对计算机立体视觉中最重要的核心理论—多视图几何理论进行了论述,为后续章节的基本矩阵和三焦点张量稳健性估计问题、基于多视几何的像点匹配算法、球面立体视觉多视图几何模型的构建、球心矢量算法的估计以及基于序列影像的三维重构等问题提供了相关理论依据。(2)从几何基础和稳健性估计算法两方面出发,详细阐述了作为计算机立体视觉理论关键性的多视图几何—基本矩阵和三焦点张量。在讨论基本矩阵和三焦点张量的常用估值算法的基础之上,进一步研究了两视和三视几何约束下的基于RANSAC算法的鲁棒性稳健估计,给出了对应的归一化7-点RANSAC鲁棒性估计算法(基本思想、算法的具体步骤和计算伪码),并进行了相关实验评定。结果表明,基于两视、三视几何约束下的RANSAC鲁棒性稳健估计算法是稳定且有效的,平均对极距离和平均余差均小于0.5个像素(达到亚像素级)。这是由于多次使用RANSAC算法能够大量剔除误匹配的“外点”,使其估算精度较高,因此在后续章节的相关研究中选为首选算子。(3)介绍了三种特征点提取算子:SIFT、SURF和ORB算子;为兼顾SURF算子的高匹配精度和ORB算子的高时效性特点,本文提出了一种新的基于影像金子塔策略的特征点快速匹配算法,并给出具体的实现步骤与算法流程图。同时,基于LADYBUG第0号子相机的连续两帧影像,按照匹配评价准则对各个算子进行综合评定。实验表明:SIFT算子的匹配精度最高、时效性最差;ORB算子的时效性最高,但匹配精度最低;基于影像金子塔策略的匹配算法和SURF、SIFT算子的精度相当(AED相差不到0.1个像素)且耗时最短。因此,考虑到基于海量序列影像的批处理操作时,本文提出的基于金字塔策略的快速匹配算法不失为一种较为优秀的高效实用的算法。(4)对子相机序列影像进行了初始匹配点集的获取工作之后,进一步给出了基于基本矩阵的两视匹配和基于三焦点张量的三视匹配,并结合RANSAC算子给出了具体的鲁棒性估计的算法步骤,同时对各自算法的匹配精度进行实验评定。其中仿真实验表明,基本矩阵F估计的平均余差会随着匹配点数的增加而越来越小,当点数大于40个时,平均余差的减少已不太明显。因此,两视影像间的匹配点数应尽量大于40对。(5)考虑到图像畸变对特征点提取与匹配精度的影响,针对三焦点张量T与非线性畸变系数的内在耦合关系,本文提出了一种新的基于三焦点张量T的三视图几何约束相机畸变差自动校正算法,并给出了算法的基本思想、自动校正流程图以及该算法的计算伪码。针对第0号子相机的连续两帧/三帧影像,分别运用基于F的和基于T的畸变差自动校正算法,实验表明,(1)这两种畸变校正算法均是有效的。(2)基于T的畸变差自动校正算法,其畸变校正后的平均对极距离和平均余差均小于基于F的畸变校正后的结果;说明,本文提出的基于三焦点张量T的畸变校正算法优于基于基本矩阵F的校正算法。这是因为,在求取跨三视影像内点集的过程中多次使用RANSAC算子,此时跨三视的内点集的匹配精度要比两视下的要高很多,因此相应求取的12K,K精度也较高。(6)考虑到基于三视几何约束下特征点的匹配精度对相机自标定结果的影响。基于第0号子相机的连续三帧序列影像,分别采用基于绝对对偶二次曲面的相机自动标定算法和基于传统的标定法以获取两者的标定内参数,同时分别进行基于这两种标定方法的三维重建点的仿真实验,以评价自标定重建点的相对误差精度。仿真结果显示,所有的自标定三维重建点的相对误差大部分在8%以内,少数点在10%左右。实验表明,通过自标定方法得到的相机内参数与传统标定结果相比较,其吻合度和精度较为适宜;虽然存在一定的瑕疵,针对子相机序列影像的海量批处理而言,对于三维重建结果精度要求不太高时,可以适用自标定方法。(7)以OMS型全景相机所获得的全景序列影像为研究对象,以球面立体视觉理论为出发点,从“物理成像模型、几何约束模型、相关数学参数模型、系统误差模型、误差传递模型”五个方面详细论述与构建了基于全景影像序列的球面立体视觉多视图几何模型。具体的来说,①从虚拟球面立体视觉模型、投影模型、坐标系统、拼接误差、不共面偏差等方面构建了物理成像模型。②针对虚拟全景球面立体视觉模型,从单视图几何、双视图几何和三视图几何的内在约束关系出发,构建了球面立体视觉的多视几何约束模型。③从OMS全景相机的物理几何结构出发,分别从通用鱼眼镜头内部参数数学模型和外部参数数学模型两方面,构建了球面立体视觉的数学参数模型。④在总结前人的理论成果之上,推导并建立了理想全景球面成像模型与严格全景球面成像模型。基于单光线下理想全景球面的投影模型,推导并修正了最终的像方投影误差方程。同时分析了理想球面成像模型的系统误差来源,并得出其误差分布律。⑤针对像点的误差如何影响空间点三维重建的精度问题,分别推导了“像点的协方差矩阵、球面坐标的协方差矩阵、基本矩阵的协方差阵、三焦点张量的协方差阵、三维重建点的协方差阵”,以此尝试构建了基于协方差矩阵的误差传递模型。(8)基于理想全景球面成像模型与针孔相机成像模型的比较,提出了基于全景球面影像序列的投影重建概念,并详细推导其重建过程。同时,基于理想全景球面成像模型,提出了一种基于全景球面影像序列的球心矢量算法(Gnomonic vector,GV),并给出了GV算法的概念、核心思想、具体算法流程步骤和算法的计算伪码。同时,进行基于基本矩阵和三焦点张量的影像匹配算法的研究,以及基于三视几何约束下的球心矢量算法的实验性验证。相关数学仿真实验和真实数据试验表明:采用球心矢量算法,将重建的三维空间点重投影并进行特征点的坐标比对,得到的精度评定结果为:标准差为0.53pix。结果表明,本文提出的球心矢量算法,对基于全景影像序列的三维重建能够得到亚像素级的重投影误差精度。(9)基于两视全景影像,SIFT算子与基于影像金字塔策略的特征点快速匹配算法相比较,本次实验表明,(1)原始待处理全景影像序列的帧数不多且需要较多的精匹配点数时,考虑采用SURF算子;(2)考虑到海量序列影像的批处理操作且对精匹配点数目要求不高时,本文提出的基于金字塔策略的匹配算法不失为一种更好的选择(10)基于MATLAB和LadybugSDK构建相关算法的验证平台,运用本文提出的球心矢量算法,对70帧全景球面的影像序列实现了三维场景空间点的三维重构,得到了大量的点云数据并对其进行三角剖分、网格化模型处理和纹理贴图,最终得到真实场景的三维重构结果。

张兰[7](2016)在《基于单视图的视觉测量方法及应用》文中研究说明单视图测量具有结构简单、标定步骤少、非接触性、造价低等优点,同时避免了多视图测量中存在的视场小、标定过程复杂、匹配困难等不足,在视觉测量中具有重要意义。本文基于单视图视觉测量方法,提出三种特定应用的测量方法,分别是:三维倒车影像系统、水面目标的三维测量方法和基于连续序列图像的弯道曲率计算方法。主要工作内容概述如下:1.三维倒车影像系统传统的倒车影像系统只能实现二维测量,为了帮助驾驶员将后方障碍物的高度呈现出来,本文提出了基于单视图的三维倒车影像的测量方法,其核心思想是利用平面标定方法对路面进行标定,实现路面上的二维测量,加入高度计算模型,进而实现三维测量。实验表明,本文的方法不仅能实现传统的二维测量,还能够有效测量路面上目标的高度,得到三维倒车影像。该倒车影像系统还能根据驾驶员的需求,进行二维、三维倒车影像的切换和稀疏、密集倒车影像线的选择。2.水面目标的三维测量根据目前水面目标测量方法的不足,本文提出了基于单视图的水面目标测量算法,并设计了一种带校平功能的标定装置。该测量方法的基本原理是利用与水面平行的平面计算水面法向量,通过平面与反投影相交的原理和高度计算模型求解水面目标的三维坐标,并且利用RGEM误差估计算法对测量结果进行评估。实验表明,该算法能实现水面上的较大场景的三维重建,且精度较高。3.基于连续序列图像的弯道曲率计算方法根据目前道路曲率计算方法存在的不足,本文提出基于连续序列图像的弯道曲率计算方法,其核心思想是利用多张连续图像来获取较长路段的数据,通过对重建曲线匹配可以实现较长路段的三维重建与坐标映射,从而可以用更多的有效数据点进行圆周拟合,计算道路曲率。实验表明,本文的计算方法能够精确得到弯道曲率,且在弯道较平缓时明显优于单幅图像曲率计算。

王美珍,刘学军,刘丹[8](2014)在《单视图多约束相机内参统一计算方法》文中提出相机自标定是摄影测量学等领域的重要命题,但图像获取设备、方式等的多样化使得图像之间的匹配越发困难,增加了多视图相机标定的难度。本文提出一种针对单视图的相机自标定方法,将图像中的几何特征及标定过程进行统一表达和计算。总结不同的不变量对相机内参的约束情况;以互相垂直的灭点作为中间计算过程的核心,讨论其他不变量向其的转化方法,使得几何特征表达统一化;以绝对二次曲线为纽带,将互相垂直的灭点约束求解,进而根据几何约束的数量求解相应的相机参数模型。该方法无需图像之间的匹配,在约束信息充分的情况下可仅利用单幅图像进行相机标定,具有方便性;无需传统标定方法中的标定模板而选用场景中存在的对象,具有普适性,尤其适合结构化的室内外场景;将几何特征和标定过程进行统一描述和计算,还具有统一性。室内外场景的测试表明本文方法具有可用性。

苑云[9](2013)在《大型结构形变的组网摄像测量方法研究》文中进行了进一步梳理随着科技的发展,越来越多的大型结构出现在人们的生产生活中,诸如桥梁、隧道、飞机、飞艇、风电叶片、天线等。全场、高精度、动态测量大型结构的形貌、变形,即形变参数,是其动态性能实验和质量监测的基本要求。摄像测量具有非接触、高精度、可测点多、实时动态测量等特点,在大型结构的形变测量方面有独特的优势。但是,由于大型结构的形变测量同时要求大尺度和高精度,大尺度要求像机具有大视场,高精度需要有高空间分辨率,双像机摄像测量方法在这两者之间存在矛盾。为此,本文采用组网摄像测量方法,研究了该方法在大型结构形变测量应用中亟需解决的四个关键问题:像机组网优化、高精度像机标定、实时三维交会和快速平差优化。本文取得的主要成果如下:1.提出了基于改进遗传算法的摄像测量网络设计方法。待测大型结构复杂,组网摄像测量中像机数目和类型多,环境约束多,仅凭经验布置像机,不能保证像机数量已确定情形下的测量精度最优。因此,组网摄像测量首要解决的问题是在给定待测模型、像机类型和数量、测量环境约束等条件下,优化设计满足精度要求的布置形式,即摄像测量网络设计。由于摄像测量网络设计具有多参数、多约束、运算量大等特点,本文使用改进的遗传算法随机寻找全局最优解。本文算法中考虑了可见性和可测性判断、分块的反向误差精度估算等因素,能够得到满足约束条件和测量精度的组网配置结果,为实施现场组网测量提供依据。2.提出了组网摄像测量中的一系列像机标定方法。由于多像机组网提供了足够的多视图几何约束,组网摄像测量系统可用两视图自标定结果作为初值,统一平差优化所有像机参数,实现系统的高精度标定。此外,为解决像机标定中各参数耦合的问题,研究了逐级独立的像机标定;为解决待测区域难以布置大量控制点的问题,研究了较为相应的大视场像机标定;作为固定像机的有益补充,经纬像机能够全场高精度测量,本文研究了中远场测量中经纬像机的标定。2.1提出了从焦距简便解析解自标定变焦两视图的方法。该方法仅需要已知像机的长宽比和零扭曲这两种内在约束,即可由同名像点得到等效焦距的更简单的解析表达式,进而标定像机,并对目标进行欧氏重构。2.2提出了基于位姿估计变化量逐级标定像机的方法。该方法首先基于位姿估计变化量标定等效焦距,然后逐级标定其他参数,解决了像机内、外参数之间耦合的问题,各参数值与其物理意义相符,可独立使用。2.3提出了基于无穷单应的大视场像机标定方法。该方法最少只需要四个非共线控制点和像机粗略的位置即可求解无穷单应,并且提出了一种坐标变换方法以保证线性求解和优化无穷单应时的稳定性。2.4提出了准同心广义经纬像机的成像模型及高精度标定方法。对于广义经纬像机的标定,在近场及单幅图像内控制点数目比较多时,可使用手眼标定等方法,但在中远场标定与测量时这些方法不适用。为方便中远场测量的经纬像机的标定,本文假设像机与旋转平台准同心,提出了准同心广义经纬像机的成像模型及高精度标定方法。3.提出了最小化空间距离的线性交会方法。交会测量时平差物点的迭代方法虽然能够保证精度,但是运算量大,不能保证实时。本文所提方法为线性方法,交会方程的物理意义为最小化物点到各像点反投影射线的距离平方和,只需一步解算得到物点坐标,精度与平差物点的迭代方法相当。4.提出了两种平差方法:共内参多视图物点形式的稀疏LM(Levenberg-Marquardt)光束法间接平差;附有限制条件的稀疏LM光束法间接平差。光束法平差是提高测量精度的必要步骤,稀疏分块平差能显着提高平差速度,且考虑既有约束的平差模型才更加符合真实物理意义。本文提出的第一种平差方法利用了多视图共内参的约束,能够同时优化物点,适用于在控制点精度不高情形下的像机标定。第二种方法能够灵活设定参数是否需要优化,能够添加各种内在约束、场景约束和运动约束,但仍然保留了稀疏分块结构,适用于存在各种约束的大型结构形变测量。利用上述研究成果,设计和研制了大型结构形变组网摄像测量系统,成功应用于风电叶片、机翼和飞艇等的形变测量。该系统能够以较优的摄像测量组网配置,测量大型结构的整体变形和各个局部区域变形,适用于场景比较单一的区域中大视场像机的标定和测量,也适用于待测区域内无任何控制信息的测量。组网摄像测量方法为大型结构形变参数的实时/准实时、动态、高精度测量提供了有力的理论和技术支持,有效拓展了传统摄像测量的应用范围,增强了摄像测量在宏观测量方面的工程实用性,有广泛应用前景。

王自然[10](2012)在《单视图几何量测方法研究与实现》文中进行了进一步梳理图像真实记录了场景中对象的空间分布、空间形态等信息,是人类获取场景中对象几何信息的一种数据源,目前场景三维信息多通过多视图几何来恢复。然而随着图像拍摄、传播方式的多样化,无法同时获得某一场景多幅图像,或是图像之间无法匹配的情况时有发生。发展利用单视图恢复图像中对象几何信息的理论与方法,一直是计算机视觉、机器视觉等领域关注的研究问题之一。本文旨在梳理已有单视图几何量测方法,设计并实现单视图几何量测系统,为用户提供单视图几何信息提取的平台。本文的主要工作有以下几个部分:(1)单视图几何量测方法研究:研究现有单视图几何量测方法,从单视图几何量测原理角度将其分为基于单应和基于不变量两类方法,从所提取的信息的维度将其分为二维平面上几何量测与三维空间上几何量测。对比基于同一几何特征的几何量测方法,从各类几何信息计算方便性的角度出发,将多种方法混合使用。(2)单视图几何量测方法交互界面与交互方式设计:单视图几何量测需要依赖图像中的几何特征,图像中的几何特征决定了采用何种方法,因此,本文设计了两类界面,一类为几何特征与待量测信息选取界面,界面中列出所有可能用于几何量测的特征组合以及待测信息供用户选择,另一类为几何量测界面,提供用户与图像交互的窗口,并按算法步骤“向导式”指导用户进行交互,并当用户提取信息不全时给予相应的提示。(3)单视图几何量测方法实现:实现集几何特征提取、不变量计算、二维信息几何量测、三维信息几何量测等功能于一体的原型系统。可实现对包含单个矩形、多个圆形或二者组合场景的二维和三维几何信息的计算,包括两点距离、折线长度、多边形面积、圆形面积、周长等。本文所实现的单视图几何量测方法,具有图像获取快捷性、测量灵活性、交互方便等特点,使不具备摄影测量、计算机视觉等学科专业知识的用户也能轻松获取图像中对象的几何信息,进一步推动了计算机视觉等技术的智能化、社会化和人性化发展。本研究可为城市规划、建筑施工、刑事侦查、交通运输等诸多领域提供较为全面的应用技术支持。

二、单视图摄像机自标定(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、单视图摄像机自标定(论文提纲范文)

(1)视觉系统中摄像机标定方法研究现状及展望(论文提纲范文)

1 引 言
2 三维标定法
    2.1 基于实物立体靶标的标定
        2.1.1 球体靶标
        2.1.2 其他立体靶标
    2.2 虚拟立体靶标
3 二维标定法
    3.1 基于二维方格的标定
    3.2 基于二次曲线的标定
4 一维标定法
    4.1 基于单个标定杆的方法
        4.1.1 绕点旋转
        4.1.2 一般运动
    4.2 基于组合标定杆的方法
5 零维自标定
    5.1 基于绝对二次曲线与外极线变换性质的标定
    5.2 基于主动视觉系统的标定
    5.3 基于分层重构的标定及其修正
6 各摄像机标定方法的性能分析及比较
7 结 论

(2)基于单视图三维重建研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究工作的背景与意义
    1.2 国内外研究历史与现状
        1.2.1 基于模型的三维重建方法
        1.2.2 基于几何外形恢复的三维重建方法
        1.2.3 基于深度学习的单视图三维重建方法
    1.3 本文的主要贡献与创新
    1.4 本论文的结构安排
第二章 基于深度学习的单视图三维重建的理论基础
    2.1 三维物体在空间中的表达方式
        2.1.1 三维模型的主流的表达方式
        2.1.2 三维模型的符号距离场表达
    2.2 卷积神经网络的理论基础
        2.2.1 基本模型
        2.2.2 层级结构
    2.3 常见神经网络结构及三维重建的网络结构
        2.3.1 VGGNet结构、UNet结构
        2.3.2 常见三维重建网络结构及策略
    2.4 本章小结
第三章 基于深度学习的单视图三维重建
    3.1 算法整体框架
    3.2 符号距离场的预测
        3.2.1 基于神经网络的特征提取
        3.2.2 网络结构的搭建
        3.2.3 网络预测模块和损失函数的设计
    3.3 相机参数的预测方法
        3.3.1 基于传统算法的相机标定
        3.3.2 基于神经网络算法的单视图相机参数标定
    3.4 后处理方案
        3.4.1 基于网格表达的处理方案
        3.4.2 基于体素表达的处理方案
    3.5 三维模型表达形式转化
        3.5.1 SDF的转化为网格
        3.5.2 SDF的转化为点云或体素
    3.6 数据集的生成
        3.6.1 ShapeNet Core数据集
        3.6.2 符号距离场数据集生成
    3.7 本章小结
第四章 实验结果与分析
    4.1 实验环境及性能评估指标
        4.1.1 实验环境及工具
        4.1.2 三维重建的性能评估指标
    4.2 有效性验证试验
        4.2.1 特征提取模块的有效性验证
        4.2.2 特征融合模块的有效性验证
        4.2.3 连续性表达的有效性验证
        4.2.4 相机位姿误差对实验结果的影响
    4.3 单视图三维重建实验
        4.3.1 定量评估结果
        4.3.2 实验结果可视化
    4.4 本章小结
第五章 全文总结与展望
    5.1 全文总结
    5.2 后续工作展望
致谢
参考文献

(3)基于近景工业摄影的光学三维形貌测量关键技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究目的和意义
    1.2 近景工业摄影测量及机器视觉
    1.3 三维形貌测量技术分析
    1.4 基于近景工业摄影的光学三维形貌测量研究现状
    1.5 论文的主要研究内容
第二章 光学三维形貌测量的理论基础
    2.1 引言
    2.2 摄像机模型与坐标系
        2.2.1 摄像机模型
        2.2.2 常用坐标系
        2.2.3 坐标系的转换
    2.3 单视图几何
        2.3.1 共线方程
        2.3.2 单像空间后方交会
    2.4 双视图几何
        2.4.1 共面方程
        2.4.2 极线几何与基础矩阵
        2.4.3 双目立体视觉三维重建
    2.5 快速光束平差算法
        2.5.1 光束平差模型及解算
        2.5.2 快速光束平差
        2.5.3 实验验证
    2.6 本章小结
第三章 摄像机的标定技术
    3.1 引言
    3.2 摄像机的畸变模型
        3.2.1 径向畸变
        3.2.2 切向畸变
        3.2.3 像平面畸变
    3.3 基于平面棋盘格的摄像机标定
        3.3.1 标定算法
        3.3.2 畸变矫正
        3.3.3 实验及结果分析
    3.4 面向自动对焦的分层式摄像机标定方法
        3.4.1 成像系统模型
        3.4.2 自动对焦技术
        3.4.3 分层式标定方法原理
        3.4.4 分层式标定方法实验
        3.4.5 基于光栅尺的验证实验
    3.5 本章小结
第四章 摄站定向算法及装置的开发与设计
    4.1 引言
    4.2 基于共面点的绝对定向算法
        4.2.1 算法原理
        4.2.2 仿真实验
    4.3 混合式相对定向算法
        4.3.1 算法原理
        4.3.2 定向精度评价实验
    4.4 面向点云拼接的定向装置设计
        4.4.1 立体定向靶标
        4.4.2 移动式平面定向靶标
    4.5 本章小结
第五章 三维点提取的密集点阵结构光与光学探针技术
    5.1 引言
    5.2 点云提取的密集点阵结构光技术
        5.2.1 结构光投影图案设计
        5.2.2 中心像素坐标提取
        5.2.3 像点匹配算法
        5.2.4 大尺寸平面的三维点提取实验
    5.3 单点提取的触针式光学探针技术
        5.3.1 结构设计及原理
        5.3.2 光学探针标定
        5.3.3 精度评价实验
        5.3.4 金属球的三维点提取实验
    5.4 本章小结
第六章 光学三维形貌测量实验与分析
    6.1 引言
    6.2 基于相对定向及平面靶标的近景工业摄影测量
        6.2.1 卫星天线测量
        6.2.2 飞机模型测量
    6.3 基于立体定向靶标的三维形貌测量
        6.3.1 测量原理
        6.3.2 测量过程
        6.3.3 测量结果分析
    6.4 基于移动式平面定向靶标的三维形貌测量
        6.4.1 测量对象
        6.4.2 测量过程
        6.4.3 测量结果分析
    6.5 基于立体定向靶标的探针式多视场三维形貌测量
        6.5.1 测量原理
        6.5.2 精度评价实验
        6.5.3 测量实验与分析
    6.6 本章小结
第七章 全文总结与展望
    7.1 全文总结
    7.2 展望
参考文献
作者在攻读博士学位期间公开发表的论文
致谢

(4)复杂先验驱动的三维重建研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究意义
    1.2 三维重建研究背景
        1.2.1 三维重建方法的初步探索
        1.2.2 硬件性能提升带来的发展
        1.2.3 人工智能带来的发展
    1.3 研究现状
    1.4 存在的问题
    1.5 研究内容和论文结构
2 先验知识在三维重建算法中的应用
    2.1 传统先验
        2.1.1 平滑和连续先验
        2.1.2 轮廓先验
        2.1.3 光照先验
        2.1.4 传统先验总结
    2.2 复杂先验
        2.2.1 曼哈顿先验
        2.2.2 分段平面先验
        2.2.3 基本几何先验
        2.2.4 模板先验
        2.2.5 数据驱动先验
    2.3 先验驱动的三维重建系统设计
        2.3.1 高精度面部重建系统
        2.3.2 单相机转台重建系统
    2.4 本章小结
3 基于视频的室外人体重建
    3.1 引言
    3.2 人体重建的的研究现状
        3.2.1 主动式重建方法
        3.2.2 被动式重建算法
    3.3 方法概述
        3.3.1 标定
        3.3.2 多视点分割
        3.3.3 深度恢复和优化
        3.3.4 点云增强
        3.3.5 细节优化
    3.4 实验结果
        3.4.1 结果对比
        3.4.2 量化评估
        3.4.3 稳定性实验
        3.4.4 实施细节
    3.5 本章小结
4 单视图人体三维重建
    4.1 引言
    4.2 单视图人体重建的研究现状
        4.2.1 参数化模型预测方法
        4.2.2 非参数化模型预测方法
    4.3 方法概述
        4.3.1 系统结构总览
        4.3.2 操控点定义
        4.3.3 关节和锚操控点变形预测
        4.3.4 顶点变形预测
        4.3.5 实施细节
    4.4 实验结果
        4.4.1 测试数据生成
        4.4.2 重建精度评估
        4.4.3 切除分析
        4.4.4 加入分割的预测
        4.4.5 同其他方法对比
        4.4.6 三维误差分析
        4.4.7 失败样本
        4.4.8 虚拟视点生成
    4.5 本章小结
5 人体新视点虚拟图片生成
    5.1 引言
    5.2 虚拟视点生成的研究现状
        5.2.1 通过三维重建的方法
        5.2.2 外貌流预测
        5.2.3 图像生成网络
    5.3 方法概述
        5.3.1 深度预测网络
        5.3.2 投影层
        5.3.3 向前光流与向后光流
        5.3.4 光流预测网络
        5.3.5 分割预测网络
        5.3.6 网络参数
    5.4 实验结果
        5.4.1 数据生成
        5.4.2 量化对比
        5.4.3 可视化对比
        5.4.4 视频序列
        5.4.5 失败样本
        5.4.6 真实图片测试
    5.5 本章小结
6 结论
    6.1 主要结论
    6.2 研究贡献
    6.3 未来展望
致谢
参考文献
简历与科研成果

(5)基于视觉SLAM的物体深度信息估计(论文提纲范文)

摘要
ABSTRACT
主要符号和缩略词说明
第一章 绪论
    1.1 研究背景和意义
    1.2 深度信息获取的研究现状
        1.2.1 主动式深度信息获取
        1.2.2 被动式深度信息获取
    1.3 利用深度学习的深度估计方法
    1.4 论文的研究内容与贡献
    1.5 本文组织和结构
第二章 结合感知损失的单目视频序列深度估计
    2.1 概述
    2.2 感知损失相关工作
    2.3 系统框架
    2.4 网络结构
        2.4.1 深度和位姿网络
        2.4.2 感知网络
    2.5 损失函数
        2.5.1 内容损失
        2.5.2 感知损失
    2.6 实验结果与分析
        2.6.1 训练细节
        2.6.2 实验评估
    2.7 本章小结
第三章 基于时域空域约束的深度信息估计
    3.1 概述
    3.2 视觉里程计相关工作
    3.3 系统框架
        3.3.1 结合空域约束的深度估计
        3.3.2 结合时域约束的视觉里程计
        3.3.3 全局联合优化
    3.4 网络结构与训练细节
        3.4.1 深度网络
        3.4.2 位姿网络
        3.4.3 训练细节
    3.5 实验结果与分析
        3.5.1 KITTI深度估计结果
        3.5.2 Make3D深度估计结果
        3.5.3 位姿估计结果
    3.6 本章小节
第四章 结合对抗学习的深度估计优化
    4.1 概述
    4.2 系统结构
        4.2.1 对抗学习
        4.2.2 损失函数
        4.2.3 训练细节
    4.3 实验结果与分析
    4.4 虚拟视点合成验证深度估计有效性
    4.5 本章小结
第五章 总结和展望
    5.1 本文总结
    5.2 未来展望
参考文献
攻读硕士学位期间发表的学术论文及取得的相关科研成果
致谢

(6)基于全景影像序列的球面立体视觉多视图几何模型研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 选题背景及意义
    1.2 基于计算机视觉的三维重建原理与方法
    1.3 当前国内外研究现状及发展动态
        1.3.1 多视几何重构理论研究现状
        1.3.2 球面立体视觉系统研究现状
    1.4 研究内容与研究方法
    1.5 论文结构
第二章 计算机立体视觉的理论基础
    2.1 射影几何变换
        2.1.1 齐次坐标
        2.1.2 射影空间
        2.1.3 射影变换
    2.2 立体相机成像模型
        2.2.1 坐标系统
        2.2.2 针孔模型
        2.2.3 CCD立体相机
        2.2.4 相机非线性畸变
    2.3 多视图几何理论
        2.3.1 双视图几何
        2.3.2 三视图几何
        2.3.3 多视图几何
        2.3.4 立体像对的几何约束
    2.4 本章小结
第三章 基本矩阵F和三焦点张量T的稳健性估计
    3.1 基于RANSAC算法的鲁棒性稳健估计
        3.1.1 随机抽样一致性算法回顾
        3.1.2 RANSAC算法中的几个关键问题
        3.1.3 基于RANSAC算法的通用估计模型
    3.2 基本矩阵的几何基础
    3.3 基本矩阵的估计算法
        3.3.1 最小点对应算法
        3.3.2 直接8-点算法
        3.3.3 归一化7-点RANSAC鲁棒性稳健估计
    3.4 三焦点张量的几何基础
        3.4.1 三焦点张量
        3.4.2 三视图中点线的关联关系
    3.5 三焦点张量的应用
        3.5.1 对极点的解算
        3.5.2 基本矩阵的解算
        3.5.3 相机矩阵的解算
        3.5.4 标定矩阵的解算
        3.5.5 影像间相对方位元素的解算
    3.6 三焦点张量的估计算法
        3.6.1 归一化 7-点RANSAC鲁棒性稳健估计
        3.6.2 代数最小化算法
    3.7 实验与分析
        3.7.1 基本矩阵F的稳健性估计实验
        3.7.2 三焦点张量T的稳健性估计实验
    3.8 本章小结
第四章 基于多视图几何约束的像点匹配算法研究
    4.1 特征点的提取
        4.1.1 尺度不变特征(SIFT)检测算子
        4.1.2 SURF检测算子
        4.1.3 ORB检测算子
        4.1.4 基于金字塔策略的检测算子
        4.1.5 实验与分析
    4.2 特征点的初匹配
        4.2.1 立体匹配约束准则
        4.2.2 匹配代价函数的确定
        4.2.3 立体匹配评价准则
    4.3 基于基本矩阵的两视匹配
        4.3.1 基于基本矩阵的RANSAC匹配点鲁棒性估计
        4.3.2 实验与分析
    4.4 基于三焦点张量的三视匹配
        4.4.1 基于三焦点张量的RANSAC匹配点鲁棒性估计
        4.4.2 实验与分析
    4.5 基于多视图几何约束的非线性畸变校正
        4.5.1 影像非线性畸变的数学模型
        4.5.2 基于基本矩阵F的相机畸变差自动校正算法
        4.5.3 基于三焦点张量T的相机畸变差自动校正算法
        4.5.4 实验与分析
    4.6 基于绝对对偶二次曲面的序列影像自标定算法
        4.6.1 相机自标定理论
        4.6.2 基本思想
        4.6.3 算法实现
        4.6.4 实验与分析
    4.7 本章小结
第五章 基于全景影像序列的球面立体视觉多视图几何模型
    5.1 全景视觉与球面立体视觉
    5.2 物理成像模型
        5.2.1 虚拟球面立体视觉模型
        5.2.2 投影模型
        5.2.3 坐标系统
        5.2.4 拼接误差
        5.2.5 不共心的偏差影响
    5.3 几何约束模型
        5.3.1 单视图几何
        5.3.2 双视图几何
        5.3.3 三视图几何
    5.4 数学参数模型
        5.4.1 内部参数数学模型
        5.4.2 外部参数数学模型
    5.5 系统误差模型
        5.5.1 OMS相机的成像模型
        5.5.2 理想成像模型的系统误差分析
    5.6 基于全景影像序列的球心矢量算法
        5.6.1 理想成像模型下的相机矩阵P
        5.6.2 基于全景影像序列的投影重建
        5.6.3 球心矢量算法(GV)
    5.7 基于误差传递模型的精度分析
        5.7.1 三维重建的误差分析
        5.7.2 基于协方差矩阵的精度评定
        5.7.3 实验分析
    5.8 实验与分析
        5.8.1 基于基本矩阵的两视全景影像匹配
        5.8.2 基于三视约束下的球心矢量算法
    5.9 本章小结
第六章 基于全景球面影像序列的三维重构
    6.1 空间点的三维重构
    6.2 基于DELAUNAY的三角剖分和网格模型
        6.2.1 点云的三角剖分
        6.2.2 三维空间的三角剖分
    6.3 实验与分析
        6.3.1 全景影像的预处理
        6.3.2 空间目标的三维重构
    6.4 本章小结
第七章 结论与展望
    7.1 本文所做的工作
    7.2 论文的创新点
    7.3 后续工作展望
参考文献
致谢
作者简介

(7)基于单视图的视觉测量方法及应用(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 课题研究的背景意义及发展现状
        1.1.1 计算机视觉的背景意义及发展现状
        1.1.2 测量技术的背景意义及发展现状
    1.2 单视图测量方法与优点
    1.3 论文的主要工作
    1.4 论文的结构安排
第二章 单视图几何测量的工作原理
    2.1 单视图测量原理流程图
    2.2 图像采集
    2.3 摄像机成像原理
    2.4 摄像机标定
        2.4.1 三个坐标系间的关系
        2.4.2 相机标定方法
    2.5 二维和三维测量方法
    2.6 本章小结
第三章 基于单视图的三维倒车影像
    3.1 倒车影像的发展现状概述
    3.2 三维倒车影像方法
        3.2.1 车载摄像机的标定
        3.2.2 倒车影像二维标尺的建立方法
        3.2.3 倒车影像三维标尺的建立方法
    3.3 实验结果与分析
        3.3.1 二维测量和三维测量验证
        3.3.2 自动生成高度标尺
        3.3.3 二维倒车影像
        3.3.4 三维倒车影像
        3.3.5 障碍物高度测量
    3.4 本章小结
第四章 基于单视图的水面目标三维重建
    4.1 概述
    4.2 校平装置、水面目标三维测量装置及图像采集
        4.2.1 水面目标三维测量的校平装置
        4.2.2 水面目标三维测量装置及图像采集
    4.3 水面目标的三维测量方法
        4.3.1 求解水面法向量
        4.3.2 度量重建
        4.3.3 欧氏重建
    4.4 误差分析
    4.5 实验结果与分析
        4.5.1 模拟实验
        4.5.2 数据实验
    4.6 本章小结
第五章 基于单视图的弯道曲率计算
    5.1 弯道曲率计算方法的概述
    5.2 基于重建数据匹配的弯道曲率计算方法
        5.2.1 车道线的三维重建及数据点的选弃
        5.2.2 基于ICP算法的曲线匹配
        5.2.3 圆周拟合及曲率计算
    5.3 实验结果与分析
        5.3.1 尖锐弯道
        5.3.2 中等弯道
        5.3.3 平缓弯道
    5.4 本章小结
第六章 结论
    6.1 论文工作总结
    6.2 展望
参考文献
攻读学位期间所取得的相关科研成果
致谢

(9)大型结构形变的组网摄像测量方法研究(论文提纲范文)

表目录
图目录
算法目录
摘要
Abstract
第一章 绪论
    1.1 课题研究背景
    1.2 国内外相关研究进展
        1.2.1 国内外相关的形变测量方法
        1.2.2 国内外相关的测量系统
    1.3 需要解决的关键问题
    1.4 本文的核心内容及技术贡献
        1.4.1 本文的核心内容
        1.4.2 本文的技术贡献
        1.4.3 本文的组织结构
        1.4.4 本文的名词约定
第二章 摄像测量网络设计
    2.1 引言
        2.1.1 摄像测量网络设计
        2.1.2 遗传算法
        2.1.3 本文算法
    2.2 会聚式摄像测量网络设计
        2.2.1 待优化参数
        2.2.2 待测物体模型
        2.2.3 约束条件
        2.2.4 适应值函数
        2.2.5 算法
        2.2.6 实验
        2.2.7 结论
    2.3 分布式摄像测量网络设计
        2.3.1 待优化参数
        2.3.2 算法
        2.3.3 实验
        2.3.4 结论
    2.4 小结
第三章 组网摄像测量中的像机标定研究
    3.1 像机标定概述
    3.2 从焦距简便解析解自标定变焦两视图的方法
        3.2.1 标定原理
        3.2.2 退化配置
        3.2.3 算法
        3.2.4 实验
        3.2.5 结论
    3.3 基于位姿估计变化量逐级标定像机的方法
        3.3.1 逐级标定方法
        3.3.2 算法
        3.3.3 实验
        3.3.4 结论
    3.4 基于无穷单应的大视场像机标定方法
        3.4.1 理论基础
        3.4.2 标定原理
        3.4.3 算法
        3.4.4 实验
        3.4.5 结论
    3.5 小结
第四章 全场测量的经纬像机系统与标定
    4.1 引言
        4.1.1 经纬像机系统构成
        4.1.2 经纬像机成像模型
        4.1.3 经纬像机的标定
        4.1.4 本文方法
    4.2 准同心广义经纬像机成像模型及标定
        4.2.1 成像模型
        4.2.2 标定方法
        4.2.3 算法
        4.2.4 实验
    4.3 小结
第五章 最小化空间距离的线性交会方法
    5.1 交会方法概述
        5.1.1 直接线性交会方法
        5.1.2 平差物点的迭代方法
        5.1.3 双目中垂线段中点法
        5.1.4 双目 Sampson 近似方法
        5.1.5 双目最优三角形方法
    5.2 最小化空间距离的线性交会方法
        5.2.1 原理
        5.2.2 算法
        5.2.3 实验结果与分析
    5.3 小结
第六章 稀疏 LM 光束法间接平差研究
    6.1 引言
        6.1.1 平差和 LM 算法概述
        6.1.2 已有工作及本文工作
    6.2 共内参多视图物点形式的稀疏 LM 光束法间接平差
        6.2.1 原理
        6.2.2 参数的协方差估计
        6.2.3 偏导数
        6.2.4 算法
        6.2.5 视图的最少配置
    6.3 稀疏 LM 光束法间接平差参数划分形式分类
        6.3.1 分类
        6.3.2 算法
        6.3.3 偏导数
    6.4 稀疏 LM 光束法间接平差实验
        6.4.1 仿真实验
        6.4.2 实际实验
        6.4.3 结论
    6.5 附有限制条件的稀疏 LM 光束法间接平差
        6.5.1 原理
        6.5.2 约束
        6.5.3 算法
        6.5.4 实验
        6.5.5 结论
    6.6 小结
第七章 结论与展望
    7.1 论文主要工作与创新点
    7.2 有待进一步研究的问题
致谢
参考文献
作者在学期间取得的学术成果

(10)单视图几何量测方法研究与实现(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景与意义
        1.1.1 研究背景
        1.1.2 研究意义
    1.2 国内外研究进展
        1.2.1 单视图二维平面几何量测
        1.2.2 单视图三维空间几何量测
        1.2.3 单视图几何量测系统
    1.3 研究目标及与内容
        1.3.1 研究目标
        1.3.2 研究内容
    1.4 技术路线
    1.5 论文组织结构
第二章 相关理论基础
    2.1 基本概念
    2.2 相机模型
    2.3 常用坐标系
    2.4 本章小结
第三章 单视图几何量测方法研究
    3.1 单视图几何量测基本原理
        3.1.1 单应与几何量测关系
        3.1.2 不变量与几何量测关系
    3.2 二维平面上几何量测
        3.2.1 基于单应的平面几何量测方法
        3.2.2 基于交比的平面几何量测方法
        3.2.3 两者方法对比
    3.3 三维空间上几何量测
        3.3.1 摄像机矩阵计算
        3.3.2 几何信息的获取
    3.4 本章小结
第四章 单视图几何量测方法交互设计与实现
    4.1 设计目标
    4.2 界面设计
    4.3 开发环境与运行环境
    4.4 几何量测方法实现
        4.4.1 二维平面上几何量测
        4.4.2 三维空间中几何量测
    4.5 本章小结
第五章 结论与展望
    5.1 结论
    5.2 展望
参考文献
致谢

四、单视图摄像机自标定(论文参考文献)

  • [1]视觉系统中摄像机标定方法研究现状及展望[J]. 田俊英,伍济钢,赵前程. 液晶与显示, 2021(12)
  • [2]基于单视图三维重建研究[D]. 王钊. 电子科技大学, 2020(07)
  • [3]基于近景工业摄影的光学三维形貌测量关键技术研究[D]. 李云雷. 上海大学, 2020(02)
  • [4]复杂先验驱动的三维重建研究[D]. 朱昊. 南京大学, 2019(01)
  • [5]基于视觉SLAM的物体深度信息估计[D]. 王安杰. 上海工程技术大学, 2019(06)
  • [6]基于全景影像序列的球面立体视觉多视图几何模型研究[D]. 王力. 中国矿业大学(北京), 2016(05)
  • [7]基于单视图的视觉测量方法及应用[D]. 张兰. 河北工业大学, 2016(02)
  • [8]单视图多约束相机内参统一计算方法[J]. 王美珍,刘学军,刘丹. 测绘通报, 2014(02)
  • [9]大型结构形变的组网摄像测量方法研究[D]. 苑云. 国防科学技术大学, 2013(10)
  • [10]单视图几何量测方法研究与实现[D]. 王自然. 南京邮电大学, 2012(07)

标签:;  ;  ;  ;  ;  

单视角相机自校准
下载Doc文档

猜你喜欢