一、多模板的红外动目标识别(论文文献综述)
张浩烽[1](2021)在《SBX雷达仿真研究》文中进行了进一步梳理导弹防御系统作为保护国家安全坚实的“盾”,是众多科技人员研究的重点。SBX雷达(Sea-based X-band Radar)作为导弹防御系统重要组成部分,其相关研究对国防建设具有重要意义。SBX雷达是以相控阵天线模块为硬件核心的X波段宽带海基雷达,对远距离弹道导弹进行空域探测、识别、制导以及杀伤评估。由于SBX雷达系统的复杂性,导致研制周期长、实现成本高,为降低系统实现所产生的不必要代价,因此对其进行计算机仿真十分必要。本论文围绕SBX雷达仿真研究,对系统的整体工作方式及组成结构进行分析与仿真,并完成对高速运动目标的计算机仿真,主要包括目标探测的功能级仿真以及ISAR成像的信号级仿真。基于Neyman-Pearson准则实现目标探测功能级仿真,解决信号级目标探测效率低的问题;基于信号的回波相干处理及keystone算法,完成高速运动目标ISAR成像。主要研究内容可概括为如下三个方面:1、针对SBX雷达在信号级上的目标检测与相关信号处理效率低下问题,本文采用功能级仿真提高系统信号处理效率,并基于等效脉冲压缩理论对目标信噪比进行优化,然后通过Neyman-Pearson检测准则以及视距判断完成目标的检测,最后通过对一系列测量误差分析得到目标的测量距离与角度。2、针对弹道导弹在高速运动下距离向频谱展宽与偏移以及匀速旋转运动引起的距离徙动所造成的ISAR成像模糊问题,对于目标在高速运动下速度与加速度引起的距离向频谱的展宽与偏移问题,采用最小二乘拟合法的参数估计与回波相干处理完成对高速运动目标回波进行补偿。对于匀速旋转运动引起的线性走动问题,采用keystone算法对旋转运动时引起的距离徙动现象进行校正,最终得到了高速运动目标在匀速旋转运动下的二维ISAR成像结果。3、采用了Visual Studio软件对SBX雷达仿真系统软件开发,首先对系统整体架构进行说明,然后分析了系统各模块具体功能,依据SBX雷达系统理论完成系统仿真软件实现,最终结合SBX雷达的仿真参数对系统进行测试,并将仿真结果与理论数据处理结果进行对比,验证了系统软件的正确性。
杨英彬[2](2021)在《基于改进YOLOv4的车辆检测及统计研究》文中研究表明智能交通是交通运输行业未来的发展方向,车流量统计是智能交通系统的重要组成部分,利用图像处理技术可以直接对交通视频进行车辆计数,为交通管理部门提供决策数据,提高道路的运输效率,还可以避免人工计数效率低下和铺设地感线圈对路面造成的负面影响。本文在现有的车流量统计算法基础上,对车辆检测、跟踪和统计方面做了相应的研究。在车辆检测方面,本文提出了一种基于改进的YOLOv4车辆检测算法。制作VOC数据集,对在天桥采集的4523张照片进行手工标注,总共标注35000辆汽车,将其分为训练集和测试集以便之后训练模型使用。针对偏远场景小目标车辆检测效果欠佳的问题,对车辆训练集使用K-means++聚类算法,提高先验框与不同特征层的匹配度,稳定聚类效果;对YOLOv4网络结构进行改进,使用设计的轻量化CSP模块代替CSP模块,使用Dense Net模块代替特征金字塔中的5次卷积模块,对特征网络进行了简化,在保证准确率的情况下,提高了检测速度。通过对测试集的验证发现,改进后的YOLOv4模型平均检测时间相较于原模型快了5毫秒。在平均精准度方面,改进后的YOLOv4模型要比原模型提高了3%,比YOLOv3模型高了6%。每秒传输的帧数(FPS)可达到25帧/秒,可以满足实时检测的要求。在车辆跟踪方面,基于卡尔曼滤波算法建立车辆跟踪模型;将IOU距离作为评价矩阵,利用匈牙利算法处理车辆检测框与跟踪预测框之间的匹配关系。融合跟踪算法的检测模型有效抑制了车辆误检和漏检现象。在车辆统计方面,在道路合适位置画出虚拟检测线,利用融合跟踪算法的车辆检测模型对视频中的车辆进行统计。利用改进的模型对单车道车辆进行统计,准确率为96%,比原模型高4%;对三车道的车辆进行统计,准确率为93%,比原模型高2%,车辆统计对解决城市拥堵问题和合理化指导城市交通具有重要意义。
刘聃琦[3](2021)在《基于核相关滤波器的运动目标跟踪算法研究》文中研究指明计算机视觉是让计算机代替人眼学会“看”,也是研究如何使人工系统从图像或多维数据中“感知”的科学,作为其中的一项重要任务,目标跟踪具有重要的应用价值。影响目标稳定跟踪的因素有很多,想在任何影响下都能稳定跟踪是一项重大的挑战。相关滤波跟踪算法以其较高的跟踪精度以及优秀的处理速度吸引许多研究者的关注。然而很多优秀的跟踪算法都有不适应的场景以及可以影响到其跟踪效果的因素,比如在目标有相似背景影响或者受到遮挡时的跟踪效果不是很理想。针对这两个问题,本文提出一种基于核相关滤波并融合SIFT特征匹配的跟踪算法。首先,考虑到具有单一特征的核相关滤波算法无法适应复杂背景或者是不同的背景,所以本文引入SIFT特征,当原单一特征不足以准确描述跟踪目标时,提取SIFT特征来更准确地表示目标特征;其次,核相关滤波算法缺乏遮挡处理,目标被遮挡后在模型更新过程中很容易使得跟踪模板受到污染,以至于在接下来的跟踪过程中目标框漂移,目标丢失。对此,在实验中更改原本的更新机制,当目标受到遮挡时,停止更新模板,直到目标再现继续更新模板参数,减少跟踪过程中的漂移情况,跟踪过程更加稳定。为了使目标被遮挡后目标再现时能更加准确的捕捉目标,本论文采取正负特征匹配,得到匹配后的最优特征点。在结束遮挡后的第一帧中标注,淘汰稀疏点并保留密集点,在密集特征点处圈定目标并继续跟踪。此算法可以在目标被遮挡再出现时重新找到目标,解决了核相关滤波算法中丢失目标后没有重检的问题,也能在目标与背景混淆时准确检测到目标。实验中,先对感兴趣区域提取HOG特征并基于核相关滤波器找最大目标响应进行目标跟踪;当目标受到遮挡或者由于相似背景影响造成跟踪框漂移时,提取目标区域的SIFT特征进行特征匹配跟踪并停止更新模板;运用SIFT特征匹配后得到重检到的目标位置,再继续进行稳定跟踪。实验结果显示,该算法能在一定程度上解决目标被短暂遮挡后以及目标与背景混淆导致的目标框漂移问题。
刘振宇,姜雨蒙[4](2020)在《基于模板匹配的遮挡工件识别方法》文中提出针对在实际生产中被遮挡工件的识别问题,提出了一种基于像素灰度并结合纹理信息的多模板旋转匹配方法。该算法首先利用Kinect v2中深度相机与彩色相机的对应关系将拍摄的彩色图像与深度图像对齐;再对彩色图像进行滤波、增强、纹理提取等预处理,得到清晰的纹理图像;然后将以不同倾斜角度摆放的工件制作成多个标准模板;最后将模板依次与纹理图像匹配,若匹配成功,则判定此区域存在目标工件。实验结果证明,该方法既能有效识别非遮挡状态下的工件也能识别遮挡状态的工件,识别率可达94.4%。
马辉[5](2020)在《基于巡检车视觉的半动态目标在语义地图中的更新方法研究》文中研究表明伴随着我国经济的快速发展,人民的生活水平也不断的得到提升,于此同时生活用品的过剩而致使的违规占用消防安全通道情况层出不穷,在发生紧急情况后,由此而导致不必要的人员伤亡及经济财产损失更是屡见不鲜。因此对消防通道的违规占用情况做及时检测是相当有必要的。然而,当前的安全检查以相关工作人员实地调查为主,这样不仅费时、费力,也可能会因人为因素而存在缺查、漏查的情况。在这种需求的情况下,结合当前日趋成熟的无人车视觉技术与环境中的丰富的语义信息,来实现对消防安全通道违规占用的检测成为了一个行之有效的方法。本文针对消防安全通道的违规占用问题,本文以走廊通道中的门框结构作为静态目标,以具有箱型结构的物体作为半动态目标。通过对研究场景理解、目标的检测与定位及地图更新相关领域的研究现状的基础上,以场景理解为核心,对目标检测、目标定位及地图更新展开研究。以此提出了一种基于场景理解的半动态目标在语义地图中的更新方法。本文的主要工作和成果如下:1.提出一种基于灭点检测的场景理解方法。通过分析灭点与在灭点检测过程中得到的水平、垂直及纵深方向的三个直线组之间的关系,得到了走廊通道的特征线。以此特征线为标准划分相应的感兴趣区域,在感兴趣区域,根据空间约束关系(如物体由地板支撑,不能穿透墙壁)剔除了除静态目标及半动态目标之外的冗余特征线,并以此实现了对半动态目标及静态参考目标的特征描述。实验表明,本方法可以实现对半动态目标及静态目标的特征提取。2.为了能够得到半动态目标的物理尺寸参数,提出了一种基于交比不变性与参照信息的目标立体几何参数提取算法。通过研究射影变换的交比不变特性可实现二维平面的几何信息发提取,在本文中将其推广到三维立体几何当中,通过在相互垂直的两个平面上提取相应目标的交比信息,在已知参照参数的情况下可以通过交比得到该目标的几何参数。通过实验表明,在摄像机内参未知的情况下,通过参照物的几何参数,仍然可以得到特定目标的几何参数,测量精度在92%以上。3.为实现半动态目标的定位及更新,本文在上述研究的基础上,结合手动创建的静态语义信息库的静态参考目标的信息参数,提出一种基于场景理解的半动态目标在语义地图中的更新方法。通过实验表明,半动态目标的定位精度在8cm之内,本文使用到的栅格地图中每个栅格描述的是实际场景中100×100mm的区域,因此该误差对于栅格地图里描述的各类目标准确性的影响不是很大,本算法基本达到将半动态目标在地图中的更新表达目的。
姜雨蒙[6](2020)在《基于Kinect的工件识别方法研究》文中进行了进一步梳理机器视觉技术在工业生产中的应用日益广泛,为了提高工件装配、分拣等生产环节的自动化程度,需要利用视觉系统引导机器人逐一识别工件并获取工件位姿信息。在许多工业生产线上,工件被随机堆叠摆放,这导致众多工件之间常常存在遮挡,所以精确地识别堆叠工件具有较高的实用价值。本文对堆叠工件的识别与定位展开了研究,主要内容如下:(1)研究了相机标定原理。首先分析了Kinect v2相机的硬件结构及深度图像的获取原理,然后研究了相机几何模型及其包含的各个坐标系之间的坐标转换关系,并通过对比常用的三类标定算法的优缺点,最终选定张正友标定算法对Kinect v2相机进行标定实验,最后研究了Eye-to-Hand手眼系统的标定原理。(2)研究了Kinect v2相机采集到的图像的预处理方法。首先分析了深度图像和彩色图像的对齐方法,然后对采集到的工件图像进行滤波、增强、纹理提取等图像预处理,通过对这些算法的实验结果对比,最终选择中值滤波和拉普拉斯算法进行增强,并采用LBP算子提取工件图像纹理特征。(3)研究了工件的识别方法。首先,根据识别需求选择可靠性较高的基于灰度的模板匹配算法,阐述了模板制作的原理及流程;然后,对于工件堆叠放置导致上层工件倾斜的情况,采用多模板的匹配方式,使多个模板涵盖工件的多种形态;之后,针对实际情况下待识别工件的倾斜方向不同,为确保各个方向的工件图像能与模板匹配,在识别过程中采用旋转模板图像产生不同方向模板来匹配的方法;最后研究图像模板制作方法和工件图像识别算法,根据该算法对图像进行识别处理,并对实验结果进行分析,验证算法的有效性、稳定性。(4)研究了工件的定位方法。工件定位采用霍夫梯度法,首先采用加权法对识别得出的目标工件彩色结果图进行图像灰度化;然后根据Roberts、Prewitt、Sobel、Canny等方法的对比实验,选择Canny算子对灰度图像进行边缘检测;最后利用霍夫梯度法对目标工件进行定位实验,对检测得到的坐标结果进行误差分析以验证该方法的准确性。
崔婷婷[7](2020)在《多波段成像系统彩色视频生成技术研究》文中指出近年来人工智能和网络通信技术逐步发展,视频监控和图像处理技术的应用范围也相应扩大。传统的监控设备大多采用单一波段、固定位置摄像机,监控范围较小,在天况较差时使用红外摄像机只能生成灰度图像,不能满足高分辨率、高信息量的视频监控要求。利用变焦式高分辨率摄像机,可以灵活选取宽范围监控视角,红外视频背景的彩色化可以加大红外前景运动目标与可见光背景对比度,图像信息量更丰富,因此提出并实现基于变焦式多波段成像的彩色视频构建系统。在能见度较高的白天拍摄监控区域的多张可见光背景图作为红外转彩色背景的源图像,分别使用YOLO算法和HOG+SVM算法检测图像中车辆、行人等可移动障碍物,通过同位置图像替换方法进行障碍物消除,以减少与红外运动目标融合后对运动目标的干扰。摄像机在天况较差环境下使用红外波段拍摄区域内任意视场与焦距的红外背景图,通过增加同比例变换功能使全景拼接和模板匹配算法搭配使用,提取彩色化背景图。利用SIFT算法将无障碍可见光背景图进行全景拼接合成全景图,红外背景图与全景图进行同比例变换,再利用模板匹配算法与全景图自动配准并从中提取出与红外背景图完全相同的彩色背景图,实现不同焦距下红外背景向彩色化背景的转换。将彩色背景图用作视频背景,通过基于三帧差分和高斯建模相结合方法从红外视频帧中提取红外运动目标,利用掩模融合算法进行融合,实现彩色化视频构建。实验的结果表明,此系统算法融合后的视频帧可以满足变焦式多波段摄像下全天候彩色化视频构建要求。使用 Visual Studio 2015 软件开发工具,结合 MFC(Microsoft Foundation Classes)作为应用程序显示框架,配合使用OpenCV计算机视觉库对数字图像处理,开发一套完整的多波段成像彩色视频生成系统软件平台,此平台适用于各种红外波段图像与可见光背景图像融合成像。论文通过红外LED摄像机在不同地点实际现场环境下进行功能测试,证明该系统的可用性。该系统输出的彩色视频可以确保任意焦距与视场角拍摄下的红外监控视频均可实现背景彩色化处理,处理后的背景场景信息更丰富,红外运动目标与彩色背景对比后定位位置和运动状态更明显,监控人员可通过本系统实时观看任意波段、任意焦距下的彩色背景视频。
沈子鉴[8](2020)在《基于视觉和雷达的分布式驱动电动车ACC研究》文中指出电动化和智能化是未来汽车的发展趋势,分布式驱动电动车作为汽车发展的主要形式,逐步搭载辅助驾驶和智能驾驶功能是必然的。自适应巡航控制系统(Adaptive Cruise Control,ACC)作为辅助驾驶的重要功能之一,以往该系统主要采用毫米波雷达感知周围环境,但是容易出现较多的误识别和漏识别情况,论文针对这个问题,研究毫米波雷达和视觉传感器目标级融合的ACC感知系统,并将其应用于分布式驱动电动车的自适应巡航控制上,旨在为分布式驱动电动车的ACC研究提供参考方案。论文依托于国家自然基金项目(51675257)进行分布式驱动电动车自适应巡航控制研究。论文对以下三部分内容展开深入研究:首先,车辆感知系统的构建和信息处理。构建车辆感知系统框架,对感知系统硬件进行选择,编写CAN通讯报文解析程序,分析毫米波雷达和视觉传感器特性,分别对两传感器各自信号进行处理,提取主要目标车辆,制定感知系统目标级融合方案。其次,基于MATLAB/Simulink设计自适应巡航控制策略。采用分层控制,上层控制器根据感知部分处理得到的前方主目标运动状态信息,分别计算巡航和跟车两种模式下的期望加速度,巡航模式采用PID控制算法,跟车模式采用线性最优二次型控制LQR算法。根据设计的巡航和跟车模式切换逻辑,将对应模式下的期望加速度传递给下层控制器。针对分布式驱动电动车执行机构,设计下层控制器,计算四轮驱动力矩和制动压力,根据加减速切换逻辑将对应控制量发送给执行器。再次,基于Car Sim建立分布式驱动电动车仿真模型。在Car Sim环境中定义Car Sim模型的输入、输出接口,对整车参数进行建模,搭建分布式驱动电动车传动、制动、悬架、轮胎和雷达等模型,设置巡航工况、跟车工况和综合工况。最后,分别对车辆感知系统和ACC控制策略进行验证。车辆感知系统实验验证,在MATLAB/Simulink环境下编写感知系统处理程序,采集实际路测传感器数据,进行离线仿真,验证融合方案的的合理性和准确性。ACC控制策略联合仿真验证,通过Car Sim和MATLAB/Simulink联合仿真,验证各工况下自适应巡航模型的巡航控制和跟车控制效果,以及两种控制模式切换逻辑的合理性。研究结果表明:论文提出的毫米波雷达和视觉传感器目标级融合方案,能够有效改善单一传感器漏检和误检的情况,并且自适应巡航控制的分布式电动车在巡航、跟车和综合工况都能够稳定合理的行驶。
刘代[9](2020)在《雷达资源分配与目标跟踪算法研究》文中研究表明随着雷达技术的快速发展,雷达功能越来越复杂,任务模式也越来越多,如何利用雷达有限资源提高雷达探测能力和目标跟踪精度成为重要研究课题,本文按照从雷达资源分配到目标跟踪,从量测噪声到量测方程,从线性滤波到非线性滤波,从非机动跟踪到机动跟踪的技术路线,在资源分配和目标跟踪两大技术领域开展研究。主要工作如下:1.针对雷达资源分配课题开展研究,包括时序设计和任务调度算法两方面。(1)时序设计:提出了动态时间片的定义,根据雷达不同的应用场景提出动态时间片的划分,并基于动态时间片节拍进行时序设计,克服了传统的调度间隔固定,不灵活,容易产生时间碎片,调度任务较少时时间利用率低等缺点,具有调度间隔灵活可变,不会产生时间碎片,时间利用率高等优点。本文通过计算机仿真证明该时序设计的有效性。(2)任务调度算法:提出了基于任务相关性的自适应调度算法,传统的自适应的调度算法未考虑任务之间的相关性即当前调度任务执行对后续任务的影响,实际上当前任务的执行对后续任务有影响,本文通过分析当前任务与后续任务之间的相关性,建立失跟任务数和时间余度模型,增加了时间余度评估指标,提出了基于任务相关性的自适应调度算法,经计算机仿真验证本文算法在多目标条件特别是负载饱和情况下大大提高了发现目标性能和时间余度。2.通过分析雷达测角精度和测距精度的影响因素,距离误差、角度误差与目标信噪比相关,量测噪声协方差矩阵可根据信噪比估计结果进行适当修正,结合先进的非线性滤波算法,提出了基于信噪比模型的扩展卡尔曼滤波算法和基于信噪比模型的不敏卡尔曼滤波算法。传统非线性滤波跟踪算法中测角误差和测距误差根据经验取固定常数值,而实际上测角误差和测距误差是变化值,会随信噪比的变化而变化。本文所提算法通过不断修正量测噪声协方差矩阵进行跟踪滤波,相比传统的非线性滤波算法目标跟踪性能得到显着提高,体现在目标跟踪精度更高、收敛速度更快。通过计算机仿真验证算法的有效性。3.宽带相控阵雷达可以获取目标高分辨距离像,本文利用此特征获取目标姿态角,并将其应用到目标跟踪。利用高分辨距离像对目标姿态角进行实时估计,并将其融合到目标的量测方程,因目标姿态角与目标运动参数间的关系是非线性的,本文结合先进的非线性滤波算法实现目标跟踪。(1)对于非机动目标跟踪提出了利用姿态角的扩展卡尔曼滤波算法和利用姿态角的不敏卡尔滤波算法。在利用姿态角的扩展卡尔曼滤波算法中,因量测方程中的姿态角是非线性函数,本文推导了姿态角由非线性方程转线性方程的表达式。通过计算机仿真表明,利用姿态角的目标跟踪算法相比传统的非线性滤波算法目标跟踪精度(位置精度和速度精度)得到很大提高,收敛速度变快,姿态角测角误差对跟踪性能影响不大,同时利用姿态角的扩展卡尔曼滤波算法和利用姿态角的不敏卡尔滤波算法跟踪精度差距不大,但在计算耗时上利用姿态角的扩展卡尔曼滤波算法较优,但在姿态角为临界值时算法失效,利用姿态角的不敏卡尔滤波算法姿态角无角度限制。(2)对于机动目标跟踪提出了利用姿态角的机动目标跟踪算法。此算法相比传统的机动目标跟踪算法性能优越,极大地改善了目标跟踪性能,体现在具有较小的目标位置误差和速度误差,更高的目标预测精度,同时分析了姿态角测角误差对算法性能的影响,姿态角测角误差越小,目标跟踪性能越好。通过计算机仿真验证了所提算法的有效性。4.针对杂波环境下目标跟踪算法开展研究,包括杂波环境下的非机动目标跟踪和机动目标跟踪。(1)对于杂波环境下的非机动目标跟踪,基于MTD测出不模糊径向速度,利用此径向速度建立速度波门,推导了径向速度波门表达式,在量测方程中引入径向速度维,利用MTD测出的径向速度实时更新目标观测值中的径向速度,而不是利用目标三轴速度和位置的数学表达式来计算径向速度。该算法相比杂波环境下传统的滤波算法目标跟踪性能得到较大提升。(2)对于杂波环境下的机动目标跟踪,根据多普勒量测信息解速度模糊,得到目标径向速度,然后在目标量测方程中增加径向速度维,将量测方程中的径向速度函数进行泰勒级数展开略去高阶量转为线性函数,同时在点迹关联时增加了径向速度波门,滤除更多的杂波点,利用多普勒量测计算出的径向速度实时更新观测值中的径向速度,因在机动目标跟踪算法中利用了更多量测信息,所以目标跟踪性能相比杂波环境下传统机动目标跟踪算法有较大提高,体现在目标位置精度、速度精度得到很大提高、位置和速度收敛速度加快、目标发生机动时响应速度更快,同时本文分析了多普勒量测误差对跟踪性能的影响,多普勒量测误差越小,目标跟踪性能越好。通过计算机仿真验证了本文所提算法的有效性。
辛浪[10](2020)在《基于机器视觉的紧固件分拣系统设计》文中研究表明随着工业4.0和中国制造2025的深入实施,在工业智能化生产发展中机器人扮演着越来越重要的角色。目前大批量机械零件生产线上的分拣工作往往存在任务繁重,人工分拣作业效率低、成本高等缺点。研究基于机器视觉技术的智能分拣机器人系统,实现高效、自动的分拣任务,是工业流水线智能化的重要趋势。本文旨在研发一种基于机器视觉的紧固件机器人分拣系统,用于替代传统生产线上的机械分拣作业和人工分拣作业,所做的主要工作如下:(1)首先设计了基于机器视觉的机械手分拣系统总体方案;其次搭建了硬件系统,确定了相关硬件的选型及安装方式,并探讨了系统组件之间的通讯方式;进一步在VS软件开发平台上,通过调用Halcon图像处理库以及训练好的卷积神经网络模型,完成了上位机软件系统开发。(2)研究了SCARA四轴机械手的正、逆运动学问题,建立了运动学正、逆解方程;在此基础上利用Matlab软件进行运动学仿真,对SCARA机械手建模并正反解验证,然后基于Adams软件完成SCARA机械手的运动学分析;本文标定相机内参和手眼系统模型使用基于Halcon圆形控制点标定方法,建立了相机坐标系与机械手坐标系的位姿转换关系。(3)研究了紧固件的图像预处理及基于边缘匹配的目标检测算法,对采集到的图像进行滤波、图像增强等预处理操作;在此基础上对比研究Sobel、Prewitt、Canny对图像的边缘提取效果;使用背景差分法将动态工件从图像视频序列中提取出来完成目标检测,其次使用边缘特征匹配完成识别,最后使用Camshift算法完成动态跟踪,实现了动态工件识别、跟踪功能。(4)为了克服基于边缘特征的匹配目标检测算法抗干扰性差、匹配准确度较低等缺点,本文深入研究了使用深度学习方法实现目标的检测工作;提出一种基于Yolov3-tiny改进的目标检测算法,使用高斯加权衰减的Soft-NMS算法替代硬判决的NMS算法筛选预测网络产生的冗余回归框;不仅针对网络结构增加52*52尺度,提高对小目标的侦测精度,而且使用Mobilenetv2基本结构块加深特征提取网络,使网络性能变得更加优异。(5)实验结果表明,本文提出的一种基于机器视觉的紧固件分拣系统在目标检测效果与分拣精度上均能达到优异性能,改进的Yolov3-tiny目标检测算法较好提高了对螺栓、螺母、螺钉、垫片的检测能力,均值平均精度由0.813增加到0.839,提升了两个百分点;召回率由0.804增加到0.821,增加了近两个百分点;本系统经实验验证平均成功分拣率维持在90%左右,使基于机器视觉的紧固件分拣系统具有较高精度和较强的鲁棒性。
二、多模板的红外动目标识别(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、多模板的红外动目标识别(论文提纲范文)
(1)SBX雷达仿真研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 SBX雷达仿真研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 雷达功能级仿真 |
1.2.2 高速运动目标ISAR成像 |
1.2.3 雷达系统仿真软件 |
1.3 本文安排 |
第二章 SBX雷达仿真系统总体设计 |
2.1 SBX雷达仿真系统工作方式分析 |
2.2 SBX雷达仿真系统整体设计 |
2.3 SBX雷达仿真系统主要模块仿真流程 |
2.3.1 功能级仿真流程 |
2.3.2 ISAR成像系统仿真流程 |
2.4 本章小结 |
第三章 SBX雷达信号处理功能级仿真 |
3.1 雷达接收信号建模 |
3.1.1 目标回波功率模型 |
3.1.2 接收机噪声模型 |
3.2 功能级信号处理建模 |
3.2.1 脉冲压缩 |
3.2.2 目标检测 |
3.2.3 距离、角度测量 |
3.3 相关仿真与结果分析 |
3.4 本章小结 |
第四章 高速运动目标ISAR成像 |
4.1 目标回波模型及去调频处理 |
4.1.1 目标回波模型 |
4.1.2 目标低速运动时去调频处理 |
4.1.3 目标高速运动时去调频处理 |
4.2 目标ISAR成像分析 |
4.2.1 旋转运动下距离多普勒成像算法 |
4.2.2 高速运动目标的ISAR成像 |
4.3 成像结果 |
4.4 本章小结 |
第五章 SBX雷达仿真系统软件实现 |
5.1 SBX雷达仿真流程 |
5.1.1 作战预备阶段 |
5.1.2 作战执行阶段 |
5.2 软件介绍 |
5.2.1 指挥系统 |
5.2.2 SBX雷达数字模拟器 |
5.2.3 工作状态界面 |
5.2.4 通信方式 |
5.3 仿真系统测试 |
5.3.1 仿真条件 |
5.3.2 仿真结果 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 全文总结 |
6.2 工作展望 |
致谢 |
参考文献 |
(2)基于改进YOLOv4的车辆检测及统计研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究的背景意义 |
1.2 课题研究的意义 |
1.3 国内外研究现状 |
1.3.1 目标检测研究现状 |
1.3.2 目标跟踪研究现状 |
1.3.3 车辆统计研究 |
1.4 研究内容 |
第2章 车辆检测及统计方法分析 |
2.1 传统车辆检测方法 |
2.1.1 背景差分法 |
2.1.2 帧差法 |
2.1.3 光流法 |
2.2 深度学习车辆检测方法 |
2.2.1 Faster RCNN |
2.2.2 SSD |
2.2.3 YOLO |
2.3 常用车辆统计方法 |
2.3.1 基于虚拟检测区的车辆统计方法 |
2.3.2 基于目标跟踪的车辆统计方法 |
2.4 本章小结 |
第3章 改进YOLOv4的车辆检测算法 |
3.1 数据集制作及性能评估 |
3.1.1 数据集制作 |
3.1.2 性能评价指标 |
3.2 YOLOv3车辆检测算法 |
3.3 YOLOv4车辆检测算法及优化 |
3.3.1 网络结构 |
3.3.2 网络结构优化 |
3.3.3 损失函数 |
3.3.4 聚类算法及优化 |
3.3.5 YOLO算法车辆识别流程 |
3.4 实验结果与分析 |
3.4.1 不同网络结构训练验证 |
3.4.2 改进后的YOLOv4算法训练验证 |
3.5 本章小结 |
第4章 车辆检测与统计准确率研究 |
4.1 车辆跟踪 |
4.1.1 卡尔曼滤波算法 |
4.1.2 匈牙利匹配算法 |
4.1.3 基于卡尔曼滤波车辆追踪模型 |
4.1.4 匈牙利联合匹配目标边界框过程 |
4.1.5 车辆跟踪算法 |
4.2 车辆统计 |
4.2.1 虚拟检测线的选择 |
4.2.2 车辆统计过程 |
4.3 试验系统搭建 |
4.3.1 硬件平台 |
4.3.2 实验软件环境 |
4.3.3 车辆统计实验 |
4.4 本章小结 |
第5章 总结与展望 |
5.1 总结 |
5.2 展望 |
致谢 |
参考文献 |
攻读学位期间获得的成果 |
(3)基于核相关滤波器的运动目标跟踪算法研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.1.1 计算机视觉 |
1.1.2 目标跟踪 |
1.1.3 目标跟踪问题及难点 |
1.2 目标跟踪的分类 |
1.3 目标跟踪的研究现状 |
1.3.1 传统跟踪算法 |
1.3.2 基于相关滤波的跟踪算法 |
1.3.3 基于深度学习的跟踪算法 |
1.4 本文的研究内容及结构安排 |
第2章 核相关滤波跟踪算法 |
2.1 相关滤波 |
2.2 核相关滤波 |
2.2.1 岭回归 |
2.2.2 核技巧 |
2.2.3 循环矩阵密集采样 |
2.2.4 多通道和方向梯度直方图 |
2.3 核相关滤波目标跟踪过程 |
2.4 算法缺陷分析 |
2.5 本章小结 |
第3章 基于核相关滤波的改进算法 |
3.1 引言 |
3.2 结合SIFT的核相关滤波算法 |
3.2.1 SIFT算法概述 |
3.2.2 SIFT算法理论基础 |
3.2.3 正负特征匹配 |
3.2.4 更新机制改进 |
3.3 难点及解决方法 |
3.3.1 判断目标的遮挡以及再现 |
3.3.2 图像特征点少 |
3.3.3 存在稀疏特征点 |
3.4 算法综述 |
3.5 本章小结 |
第4章 实验设计及结果分析 |
4.1 实验设计 |
4.2 实验结果 |
4.2.1 跟踪算法的评价标准 |
4.2.2 实验结果分析 |
4.3 实验总结 |
4.4 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间发表的论文和获得的科研成果 |
致谢 |
(4)基于模板匹配的遮挡工件识别方法(论文提纲范文)
0 引言 |
1 深度图像与彩色图像对齐 |
2 彩色图像预处理 |
2.1 图像滤波 |
2.2 图像增强 |
2.3 图像纹理提取 |
3 目标识别 |
3.1 基于圆轮的模板匹配 |
3.2 多模板匹配 |
3.3 旋转模板匹配 |
3.4 多模板旋转匹配 |
4 实验及结果 |
4.1 识别结果及分析 |
4.2 算法有效性 |
5 结束语 |
(5)基于巡检车视觉的半动态目标在语义地图中的更新方法研究(论文提纲范文)
摘要 |
abstract |
第1章 引言 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 场景理解 |
1.2.2 目标识别 |
1.2.2.1 传统目标识别算法 |
1.2.2.2 基于深度学习的目标识别算法 |
1.2.3 视觉目标定位 |
1.2.4 室内地图更新方法 |
1.2.4.1 同步定位与建图(SLAM) |
1.2.4.2 增量式更新 |
1.2.5 语义地图及场景目标 |
1.3 研究内容和论文结构 |
第2章 基于灭点检测的场景理解 |
2.1 概述 |
2.2 灭点的定义 |
2.3 灭点检测算法 |
2.3.1 图像边缘检测 |
2.3.2 直线检测 |
2.3.3 直线分组 |
2.3.4 直线优化 |
2.3.5 求取灭点 |
2.4 基于场景理解的半动态目标检测 |
2.5 基于场景理解的静态参考目标的检测 |
2.6 目标检测实验及结果分析 |
第3章 基于场景理解的半动态目标定位 |
3.1 概述 |
3.2 场景理解目标定位原理 |
3.2.1 射影变换的交比不变性原理 |
3.2.2 直线上的线段计算 |
3.2.3 二维平面上的线段计算 |
3.2.3.1 平行线上的线段计算 |
3.2.3.2 平面上任意线段长度的计算 |
3.3 半动态目标定位算法 |
3.4 实验及结果分析 |
第4章 语义地图结构及更新 |
4.1 概述 |
4.2 语义信息库的构建 |
4.2.1 语义信息库的需求分析 |
4.2.2 语义信息库的逻辑结构 |
4.2.3 语义信息库的数据表 |
4.2.4 静态目标属性 |
4.3 栅格地图的构建 |
4.3.1 静态目标在栅格地图中的表达 |
4.3.2 半动态目标在栅格地图中的表达 |
4.4 语义地图更新 |
4.4.1 半动态语义信息匹配及语义信息库的更新 |
4.4.2 栅格地图更新 |
第5章 结论与展望 |
5.1 结论 |
5.2 展望 |
参考文献 |
致谢 |
攻读学位期间参加的科研项目和成果 |
(6)基于Kinect的工件识别方法研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究目的与意义 |
1.2 国内外研究现状 |
1.2.1 国外工件识别技术研究现状 |
1.2.2 国内工件识别技术研究现状 |
1.3 主要研究内容 |
第2章 相机选取与标定 |
2.1 相机选用 |
2.2 坐标系转换 |
2.3 相机标定 |
2.3.1 张正友标定法 |
2.3.2 彩色相机标定 |
2.3.3 深度相机标定 |
2.4 手眼标定 |
2.5 本章小结 |
第3章 图像预处理 |
3.1 深度图像与彩色图像对齐 |
3.2 图像滤波 |
3.2.1 双边滤波 |
3.2.2 均值滤波 |
3.2.3 方框滤波 |
3.2.4 中值滤波 |
3.2.5 高斯滤波 |
3.3 图像增强 |
3.3.1 拉普拉斯增强 |
3.3.2 直方图均衡化 |
3.3.3 对数增强 |
3.3.4 伽马变换 |
3.4 图像纹理提取 |
3.5 本章小结 |
第4章 目标识别 |
4.1 基于圆轮的模板匹配 |
4.2 多模板匹配 |
4.2.1 感兴趣区域创建 |
4.2.2 模板库创建 |
4.3 旋转模板匹配 |
4.4 多模板旋转匹配 |
4.5 实验结果及分析 |
4.5.1 识别结果及分析 |
4.5.2 算法有效性 |
4.5.3 算法稳定性 |
4.6 本章小结 |
第5章 目标定位 |
5.1 灰度转化 |
5.2 边缘检测 |
5.3 中心点定位 |
5.3.1 霍夫变换 |
5.3.2 霍夫梯度法 |
5.4 实验结果及分析 |
5.4.1 定位结果及分析 |
5.4.2 算法稳定性 |
5.5 本章小结 |
第6章 结论 |
参考文献 |
在学研究成果 |
致谢 |
(7)多波段成像系统彩色视频生成技术研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 传统视频监控系统国内外发展现状 |
1.2.2 多波段彩色视频成像技术发展现状 |
1.3 本文研究的主要内容 |
2 多波段成像彩色视频生成系统 |
2.1 系统原理 |
2.2 系统组成 |
2.2.1 系统整体框架 |
2.2.2 视频监控设备 |
2.2.3 视频图像处理平台 |
2.3 系统软件设计 |
2.3.1 系统软件框架设计 |
2.3.2 系统软件开发环境 |
2.3.3 系统图像处理流程 |
2.4 图像预处理 |
3 可移动目标检测及消除算法研究 |
3.1 引言 |
3.2 车辆检测方法概述 |
3.3 本文车辆目标检测方法原理及结果 |
3.3.1 Haar+Adaboost级联分类器目标检测原理 |
3.3.2 YOLO目标检测算法原理 |
3.3.3 车辆检测结果对比 |
3.4 静置车辆障碍物消除 |
3.5 行人目标检测及消除 |
3.5.1 行人检测算法 |
3.5.2 行人消除方法及结果 |
4 彩色视频构建算法研究 |
4.1 引言 |
4.1.1 系统组成 |
4.2 全景拼接 |
4.2.1 全景拼接概述 |
4.2.2 全景拼接步骤 |
4.2.3 本文全景拼接方法 |
4.3 图像模板匹配的研究 |
4.3.1 模板匹配含义 |
4.3.2 模板匹配分类 |
4.3.3 本文改进的模板匹配算法 |
4.4 红外运动目标与彩色化背景融合 |
4.4.1 灰度融合算法 |
4.4.2 彩色融合算法 |
4.4.3 本文图像融合方法 |
5 系统测试与实验结果 |
5.1 系统测试方案 |
5.2 系统软件平台设计 |
5.2.1 云台界面 |
5.2.2 软件主界面 |
5.3 系统测试结果 |
5.3.1 可移动障碍物检测与消除 |
5.3.2 全景图像拼接 |
5.3.3 模板匹配 |
5.3.4 彩色化背景与红外前景运动目标融合 |
5.3.5 含障碍物彩色化背景与前景运动目标融合 |
结论 |
参考文献 |
致谢 |
作者简历及攻读硕士学位期间的科研成果 |
(8)基于视觉和雷达的分布式驱动电动车ACC研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 课题的研究背景与意义 |
1.2 课题的国内外研究现状 |
1.2.1 车辆感知系统的研究现状 |
1.2.2 自适应巡航控制研究现状 |
1.3 本文主要研究内容 |
2 车辆感知系统的构建与信息处理 |
2.1 车辆感知系统的架构 |
2.2 车辆感知系统的硬件选择 |
2.2.1 毫米波雷达的选择 |
2.2.2 雷达CAN分析仪的选择 |
2.2.3 视觉传感器的选择 |
2.2.4 CAN卡的选择 |
2.3 毫米波雷达的数据解析和信息处理 |
2.3.1 毫米波雷达的数据解析 |
2.3.2 毫米波雷达的信息处理 |
2.4 视觉传感器的数据解析和信息处理 |
2.4.1 视觉传感器的数据解析 |
2.4.2 视觉传感器的信息处理 |
2.5 双传感器信息融合处理方案制定 |
2.6 本章小结 |
3 自适应巡航控制策略设计 |
3.1 ACC自适应巡航系统设计 |
3.1.1 ACC控制功能 |
3.1.2 ACC控制架构设计 |
3.2 ACC上层控制器设计 |
3.2.1 车距模型建立 |
3.2.2 巡航模式期望加速度计算 |
3.2.3 跟车模式期望加速度计算 |
3.2.4 巡航与跟车模式切换策略设计 |
3.3 ACC下层控制器设计 |
3.3.1 驱动控制器设计 |
3.3.2 制动控制器设计 |
3.3.3 加减速控制切换策略设计 |
3.4 本章小结 |
4 分布式驱动电动车仿真模型建立 |
4.1 车辆模型I/O接口定义 |
4.2 整车参数建模 |
4.3 车辆子系统模型搭建 |
4.3.1 传动系统建模 |
4.3.2 制动系统建模 |
4.3.3 悬架系统建模 |
4.3.4 轮胎建模 |
4.3.5 雷达建模 |
4.4 本章小结 |
5 实验验证 |
5.1 车辆感知系统实验验证 |
5.1.1 巡航工况实验验证 |
5.1.2 跟车工况实验验证 |
5.2 ACC控制策略联合仿真验证 |
5.2.1 巡航工况仿真验证 |
5.2.2 跟车工况仿真验证 |
5.2.3 综合工况仿真验证 |
5.3 本章小结 |
6 结论与展望 |
6.1 结论 |
6.2 展望 |
参考文献 |
致谢 |
(9)雷达资源分配与目标跟踪算法研究(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 研究历史与现状 |
1.2.1 雷达资源分配 |
1.2.2 雷达目标跟踪算法 |
1.3 研究内容及计划安排 |
第二章 基于动态时间片节拍和任务相关性的自适应调度 |
2.1 引言 |
2.2 可分配雷达资源 |
2.3 传统的自适应调度算法 |
2.3.1 经典EDF算法 |
2.3.2 HPEDF算法 |
2.4 基于动态时间片节拍的时序设计 |
2.4.1 时间片的定义 |
2.4.2 时序设计 |
2.5 基于任务相关性的自适应调度算法 |
2.5.1 任务模型 |
2.5.2 任务相关性模型 |
2.5.3 评估指标 |
2.5.4 任务驻留时间对雷达威力的影响 |
2.5.5 执行任务选择 |
2.5.6 调度策略 |
2.6 仿真分析 |
2.6.1 以动态时间片为节拍的时序设计仿真 |
2.6.2 基于任务相关性的自适性调度算法仿真 |
2.7 本章小结 |
第三章 基于信噪比模型的目标跟踪 |
3.1 引言 |
3.2 量测噪声分析 |
3.2.1 数学模型 |
3.2.2 目标回波信噪比随距离的变化 |
3.2.3 雷达方位测角精度分析 |
3.2.4 雷达俯仰测角精度分析 |
3.2.5 雷达测距精度分析 |
3.2.6 量测噪声协方差的选取 |
3.3 基于信噪比模型的扩展卡尔曼滤波 |
3.3.1 扩展卡尔曼滤波算法 |
3.3.2 基于信噪比模型的扩展卡尔曼滤波 |
3.4 基于信噪比模型的不敏卡尔曼滤波 |
3.4.1 不敏卡尔曼滤波算法 |
3.4.2 基于信噪比模型的不敏卡尔曼滤波 |
3.5 仿真分析 |
3.5.1 角度误差变化仿真 |
3.5.2 距离误差变化仿真 |
3.5.3 距离误差角度误差变化仿真 |
3.6 本章小结 |
第四章 利用姿态角辅助的目标跟踪 |
4.1 引言 |
4.2 利用姿态角的目标跟踪 |
4.2.1 姿态角的定义 |
4.2.2 数学模型 |
4.2.3 算法实现 |
4.3 利用姿态角辅助的非机动目标跟踪算法 |
4.3.1 利用姿态角的扩展卡尔曼滤波 |
4.3.2 利用姿态角的不敏卡尔曼滤波 |
4.3.3 仿真分析 |
4.4 利用姿态角辅助的机动目标跟踪算法 |
4.4.1 机动目标跟踪算法 |
4.4.2 利用姿态角辅助的机动目标跟踪算法 |
4.4.3 仿真分析 |
4.5 本章小结 |
第五章 杂波环境下的目标跟踪 |
5.1 引言 |
5.2 杂波环境下传统的目标跟踪算法 |
5.2.1 杂波环境下非机动目标跟踪算法 |
5.2.2 杂波环境下机动目标跟踪算法 |
5.3 径向速度分析 |
5.3.1 径向速度获取 |
5.3.2 基于多普勒量测的测速精度分析 |
5.3.3 径向速度线性化 |
5.4 杂波环境下径向速度辅助的非机动目标跟踪算法 |
5.4.1 数学模型 |
5.4.2 径向速度波门 |
5.4.3 利用径向速度的Kalman-PDA算法 |
5.4.4 仿真分析 |
5.5 杂波环境下径向速度辅助的机动目标跟踪算法 |
5.5.1 数学模型 |
5.5.2 径向速度波门 |
5.5.3 利用径向速度的IMM-PDA算法 |
5.5.4 仿真分析 |
5.6 本章小结 |
第六章 总结与展望 |
6.1 工作总结 |
6.2 工作创新点 |
6.3 研究展望 |
参考文献 |
致谢 |
作者简介 |
(10)基于机器视觉的紧固件分拣系统设计(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题来源 |
1.2 课题研究的背景和意义 |
1.3 国内外研究动态 |
1.3.1 视觉分拣机器人研究现状 |
1.3.2 目标检测算法研究现状 |
1.4 本文研究内容及创新性 |
第2章 紧固件分拣系统搭建 |
2.1 紧固件分拣系统总体方案设计 |
2.2 系统硬件及设备选型 |
2.2.1 串联机械手 |
2.2.2 工业相机 |
2.2.3 镜头 |
2.2.4 相机安装方式 |
2.2.5 光源选型及照射方式 |
2.2.6 机器人控制器选型 |
2.3 系统组件之间的通讯方式 |
2.4 紧固件分拣系统软件设计方案 |
2.5 本章小结 |
第3章 机器人运动学及系统标定 |
3.1 机器人运动学 |
3.1.1 SCARA机械臂 |
3.1.2 SCARA机械臂运动学正解 |
3.1.3 SCARA机械臂运动学逆解 |
3.2 相机标定 |
3.2.1 相机成像模型 |
3.2.2 相机内外参数求解 |
3.2.3 相机标定实验 |
3.3 机械手视觉系统标定 |
3.3.1 求解齐次变换矩阵 |
3.3.2 手眼标定实验 |
3.4 本章小结 |
第4章 分拣系统目标检测算法研究 |
4.1 图像预处理 |
4.1.1 图像平滑 |
4.1.2 图像增强 |
4.2 基于边缘特征匹配的静态工件识别与定位 |
4.2.1 边缘提取 |
4.2.2 基于边缘特征的模板匹配 |
4.3 运动目标检测与跟踪 |
4.3.1 运动目标检测 |
4.3.2 Camshift目标跟踪算法 |
4.4 基于 Yolov3-tiny 改进的目标检测算法 |
4.4.1 Yolov3-tiny算法 |
4.4.2 基于Yolov3-tiny目标检测算法改进 |
4.4.3 实现过程 |
4.5 本章小结 |
第5章 机器人运动学仿真及分拣实验结果分析 |
5.1 SCARA机器人运动学仿真分析 |
5.1.1 SCARA机械手运动学建模及正反解验证 |
5.1.2 SCARA机械手轨迹规划 |
5.2 基于静态工件传统边缘匹配的目标检测结果 |
5.3 运动工件的传统跟踪定位结果 |
5.4 改进Yolov3-tiny的目标检测实验结果 |
5.4.1 评价指标 |
5.4.2 实验结果分析 |
5.5 机械手抓取实验 |
5.5.1 上位机软件设计 |
5.5.2 机器人分拣实验及结果分析 |
5.6 本章小结 |
结论 |
1 全文总结 |
2 工作展望 |
致谢 |
参考文献 |
攻读学位期间取得的学术成果 |
四、多模板的红外动目标识别(论文参考文献)
- [1]SBX雷达仿真研究[D]. 张浩烽. 电子科技大学, 2021(01)
- [2]基于改进YOLOv4的车辆检测及统计研究[D]. 杨英彬. 江汉大学, 2021(01)
- [3]基于核相关滤波器的运动目标跟踪算法研究[D]. 刘聃琦. 沈阳理工大学, 2021(01)
- [4]基于模板匹配的遮挡工件识别方法[J]. 刘振宇,姜雨蒙. 计算机应用研究, 2020(S2)
- [5]基于巡检车视觉的半动态目标在语义地图中的更新方法研究[D]. 马辉. 浙江科技学院, 2020(03)
- [6]基于Kinect的工件识别方法研究[D]. 姜雨蒙. 沈阳工业大学, 2020(01)
- [7]多波段成像系统彩色视频生成技术研究[D]. 崔婷婷. 大连海事大学, 2020(01)
- [8]基于视觉和雷达的分布式驱动电动车ACC研究[D]. 沈子鉴. 辽宁工业大学, 2020(03)
- [9]雷达资源分配与目标跟踪算法研究[D]. 刘代. 西安电子科技大学, 2020(08)
- [10]基于机器视觉的紧固件分拣系统设计[D]. 辛浪. 成都理工大学, 2020(04)