一、用于细胞分析的机器视觉系统(论文文献综述)
李家宁,田永鸿[1](2021)在《神经形态视觉传感器的研究进展及应用综述》文中研究表明神经形态视觉传感器具有高时域分辨率、高动态范围、低数据冗余和低功耗等优势,近年来在自动驾驶、无人机视觉导航、工业检测及视觉监控等领域(尤其在涉及高速运动和极端光照等条件下)产生了巨大的应用前景.神经形态视觉是一个包含硬件、软件、生物神经模型等的视觉感知系统,终极目标是模拟生物视觉感知结构与机理,以硅视网膜达到、扩展或超越人类智能.作为神经形态工程的重要分支,神经形态视觉是计算神经科学与计算机视觉领域的交叉学科与研究热点.本文从生物视觉采样模型、神经形态视觉传感器的采样模型及类型、视觉信号处理与特征表达、视觉任务应用等视角进行了系统性地回顾与综述,展望了该领域未来研究的技术挑战与可能发展方向,同时探讨了其对未来机器视觉和人工智能领域的潜在影响.
冯灏喆[2](2021)在《基于机器视觉的砂浆可泵性预测》文中研究指明随着砂浆需求量的增加,对砂浆各种性能的要求也越来越高,其中,可泵性作为砂浆的一个重要性能,得到了各方关注和研究。在传统的特征工程中,不同场合下选择的特征往往有很大的差异,人工选择特征不仅工作量大而且效果欠佳,泛化能力也差,而深度学习模型具有自动提取特征的优势,可有效避免特征工程所带来的种种缺陷。通过人眼直接判断砂浆的可泵性好坏具有很强的随意性和主观性,同时准确率也不高,此外,直接通过复杂的可泵性标注进行预测不仅需要大量的设备,还需要经验丰富的专业人员,成本较高。针对此现状,本文提出将机器视觉和深度学习引入砂浆可泵性识别与分类中,利用深度学习模型对反映砂浆变化过程的图像序列进行时空特征提取,无需通过复杂的可泵性标注即可进行自动预测。实验表明,本文所建立的模型具有很好的学习效果、泛化能力和鲁棒性,论证了利用本文模型在可泵性识别与分类上的可行性,为可泵性预测提供了一个全新的思路和参考。主要研究内容如下:1、基于机器视觉制作了用于砂浆可泵性识别与分类的数据集并对数据集进行了一系列预处理操作,得到了包含160组样本的最终数据集。利用工业相机抓拍每一组配比下砂浆泵出时的变化过程,得到相应的图像序列,同时测量出每组砂浆的稠度指标,并对每组砂浆进行了挤压测试和渗水测试,结合泵送时的现场效果,例如泵压和泵灰速度的实时变化情况等,标注出了每组砂浆的可泵性标签,最后通过图像压缩、归一化、数据增强等手段对数据集进行了预处理,得到了最终版本的数据集。2、提出了一种基于3D CNN的可泵性识别方法,基于该方法设计并实现了4个基于3D CNN的网络模型,并首次尝试将其应用于砂浆可泵性识别与分类的研究中。利用最终数据集分别在这些模型上做了训练和测试,得到了各模型的损失值曲线图和混淆矩阵。对所有模型做了分析与比较,其中一个模型的准确率可达93.75%,三个模型的准确率均高达100%,能实现测试集上所有样本的正确识别与分类,论证了3D CNN模型在砂浆可泵性识别与分类上的技术可行性。3、提出了一种基于3D CNN+ConvLSTM2D网络结构的砂浆可泵性识别方法,基于该方法设计并实现了11个基于3D CNN+Conv LSTM2D的融合模型,并首次尝试将其应用于砂浆可泵性识别与分类的研究中。利用最终数据集分别在这些模型上做了训练和测试,得到了各模型的损失值曲线图和混淆矩阵。对所有模型做了分析与比较,其中有四个模型的准确率可达93.75%,有五个模型的准确率可达100%,能实现测试集上所有样本的正确识别与分类,论证了3D CNN+ConvLSTM2D融合模型在砂浆可泵性识别与分类上的技术可行性。
罗彰[3](2021)在《基于机器视觉的收藏币币面品相质量检测技术研究》文中指出收藏币币面品相质量的检测结果能够很好的反应收藏币的收藏价值,是评级人员对收藏币进行价值评价的重要参考。收藏币的币面品相质量检测包括以下几部分:一是完成高质量收藏币币面图像的采集,二是能够定性的判断币面缺陷的特征及种类,三是对这些缺陷进行统计分析,判断这些缺陷对币面质量的影响程度。为了完成以上目标,本文主要做了以下几个方面的工作。在图像采集方面,本文从机器视觉系统硬件选型、采集背景及采集环境要求出发,完成了光源、相机及镜头的选型,完成密闭采集环境的设计、搭建及图像采集软件的编写,实现了高质量收藏币图像的采集存储。在图像预处理和收藏币类型识别方面,鉴于不同收藏币币面特征的不确定性及多变性,本文采用了一种基于相关性的多目标的收藏币币面类型识别方法,目标图像与参考图像经过相同预处理后,再经过一系列图像变换、匹配,最终实现收藏币的类型识别及配准。在收藏币币面缺陷提取、分类、识别方面,鉴于同一位置在存在缺陷时与无缺陷时的像素值的差别,通过图像差分法将目标收藏币图像与参考收藏币图像通过先配准后差分,实现收藏币币面缺陷区域的提取。同时为了去除图像中的噪点干扰,更有效的筛选出币面缺陷区域及准确判断币面缺陷的类型,本文采用了多次阈值、图像分割的方法,根据不同缺陷在目标图像、参考图像及差分后图像中的像素值不同、分割后不同缺陷区域的几何、形状参数不同,实现了对收藏币币面缺陷类型的准确划分。在币面品相质量检测方面,以中华民国三年一元袁世凯银元为例,将币面区域划分为币圈、重要特征、币面背景三部分区域,根据这三区域将收藏币币面缺陷的类型进行细分,不同类别体现缺陷对收藏币币面品相的不同影响程度。在上述研究内容的基础上,本文设计并搭建了一个基于机器视觉的收藏币币面品相质量检测系统,通过实验证明了本系统能够识别收藏币的币面缺陷区域,检测结果稳定可靠。
梁智滨[4](2021)在《基于机器视觉的刀具豁口检测系统关键技术研究》文中研究说明因分切刀具刃口微米级的豁口而产生的极片毛刺是严重的动力电池安全隐患源。目前,由于缺少锂电池极片分切刀具豁口的高精度自动检测设备,质检人员主要通过观察显微图像,主观判定刀具磨损情况,该方法存在检测准确度低、重复性差、检测的人工成本高和视力损伤大的问题,无法满足企业对检测精度和速度的要求。因此,本文对刀具豁口高精度检测系统中的关键技术展开研究,主要研究内容如下:(1)提出了一种刀具刃口显微图像中的附着物去除网络ARNet。针对刀具边缘粘连的附着物降低检测准确度,且现有附着物去除算法存在刀具边缘恢复不完整,甚至去除失败的问题。该方法首先通过二值掩膜引导模块区分目标与背景特征,再利用去除过程学习模块提取递归过程中的时序信息;然后通过自注意力精准分离模块,建立附着物特征在全局中的依赖关系信息从而精准去除附着物。实验结果表明,该方法相比于PRe Net网络,PSNR和IOU分别提高了1.016d B和3.48%,更完整地还原了刀具的真实边缘,同时减少了86.5%的参数量和90.9%的计算量。(2)提出了一种改进Zernike矩的刀具图像亚像素边缘检测算法。针对光源衍射导致刀具边缘虚化和传统边缘检测算法提取准确度不高导致检测的豁口参数准确度降低的问题,首先采用更大的7x7的像素模板;其次,根据刀具边缘与光源过渡区间的灰度分布,改用三级灰度边缘阶跃模型;然后,采用Otsu算法优化亚像素边缘判定条件。实验效果表明,该方法相比传统边缘检测算法具有更高的检测准确度,实现刀具边缘的精准定位。(3)提出了一种改进区域生长的刀具豁口检测算法。针对刀具豁口缺陷中,相邻豁口存在粘连现象,从而导致豁口参数虚高,严重影响刀具豁口的测量结果准确度的问题,首先以刀具边缘曲线的差分结果为基础,提出自适应波谷种子点选取方法;然后改进邻域搜索模型进行搜索,并结合差分敏感的生长条件生成预选豁口;最后,依据拓扑结构对相连的预选豁口区域进行合并,优化并输出豁口位置区间。实验表明,本文方法能依据豁口拓扑结构检测出单个缺陷,豁口起始位置划分准确,且4096x2168分辨率图像的平均检测时间为0.0232s,满足实时性需求。
王帅[5](2021)在《基于机器视觉的产品表面缺陷检测关键算法研究》文中指出近年来,发达国家相继开始了对制造业进行产业升级,其中主要以德国的工业4.0为代表。制造业在我国既是国民社会经济中的支柱产业,而且也是我国推动创新以及产业升级的主战场。在中国制造2025这个战略中指出要更快的提高产品的质量,制定提升产品质量的实施计划。对于一个企业来说,产品质量是企业发展和竞争的基石。提高产品的质量对于企业十分重要。因此,在众多的工业领域,产品表面缺陷检测已经吸引了大量的研究人员对其进行深入的研究。为了进一步提升产品表面缺陷检测的自动化程度,研究人员使用机器学习或者深度学习算法来进行检测。这类方法已经成为了新的发展方向。在工业生产过程中,由人工来做测量和判断会因为疲劳、操作人员个体差异等产生误差和错误,通过视觉显着性的方法来模拟人来进行产品的缺陷检测能够增加效率和准确率,能够很方便的区分出有缺陷的区域和没有缺陷的区域。因此研究基于机器视觉的产品缺陷检测算法对发展智能生产线有着至关重要的作用,也是我国工业生产智能制造的关键一步。因此,本课题研究机器视觉算法用于产品缺陷检测的有着重要的现实意义,对实现智能制造具有重要的理论意义及实际价值。具体研究内容如下:1.提出了一种基于区域特征聚类显着性检测的表面缺陷分割算法。针对传统的基于机器学习的表面缺陷检测算法中准确率低、鲁棒性弱的问题。本文提出了一种基于区域特征聚类显着性检测的表面缺陷分割算法。首先使用由GPU加速的超像素分割算法对图像进行分割,接着对分割的每个超像素区域求取特征向量。再使用多带宽无参聚类算法对特征向量聚类,得到十个不同带宽下的显着性图。通过神经网络对显着性图进行合并。把最后得到的显着性图作为一个新的特征再次重复以上过程。重复十次后得到最终的缺陷图像分割图。通过实验表明,本算法和其他算法比较,在效果、准确率、召回率、F值以及MAE上都有提高。2.提出了基于U-net和迁移学习的表面缺陷检测算法。针对当前的深度学习图像分割算法在提高精度和减少计算量方面仍有很大的空间。采用迁移学习或改进算法,可以提高学习精度,取得较好的效果。将批归一化(BN)层合并到卷积层中,可以减少计算量。首先,使用数据扩充扩展数据集。然后使用Efficient Net作为主干网络来提取特征。使用U-net在多个尺度上对特征进行融合。最后,通过一层卷积得到大小为512×512×4的四类缺陷的映射。实验表明,该算法比其他算法具有更高的精度和鲁棒性。平均Dice系数达到0.905。3.提出了一种基于迁移学习和多尺度特征融合的表面缺陷检测算法。这种深度学习模型是一种端到端的表面缺陷检测算法。它由基于高效网络的主干网、自顶向下的特征金字塔网络(Bi FPN)和基于反卷积网络的多尺度特征融合组成,以产生最终的输出。最终输出是四个与输入大小相同的分割图,表示四类缺陷。由于Mish激活函数能够获得更好的梯度并且不出现饱和现象,因此本文中的激活函数使用了Mish,进而使得模型更准确泛化性更好。实验结果表明,该算法的平均Dice系数为0.912。优于其他深度学习算法的钢材表面缺陷检测。4.提出了一种将分类与目标检测模型相结合的表面缺陷检测算法。基于深度学习的分类算法只能对图像进行分类,不能确定缺陷的位置和大小。这对以后的数据分析有很大的影响。基于GAN和强化学习,很难训练出一个稳定、准确的模型。本章实现了钢板表面缺陷的自动检测和定位,进一步提高了算法的精度和稳定性,减少了算法的平均运行时间。通过分析发现,麻点表面缺陷较小不明显,该类缺陷准确度不高。通过在Faster R-CNN的特征提取部分加入FPN和SPP,提高了这类缺陷的识别精度。裂缝缺陷又窄又长检测的准确性不高。通过改变Faster R-CNN的默认锚的大小,提高了定位精度。在分类模型和目标识别模型的主干网络Res Net50-vd改进模型中,通过加入DCN和改进的Cutout数据增强,可以更好地检测出各种形状的缺陷,具有更高的精度和鲁棒性。最后对分类模型和目标检测模型的精度进行了分析,整个模型的精度为0.982。
薛文杰[6](2021)在《基于机器视觉的全自动鸡胚检验装置的设计》文中指出鸡胚是生物疫苗企业用来制备疫苗的生物反应器,主要应用于禽流感疫苗、新城疫疫苗、普通流感疫苗等的制备。随着生物疫苗生产智能化、自动化的不断加深,对鸡胚的自动照检越来越成为关注点。本文提出并开发了一种基于机器视觉的全自动的实现鸡胚照检、传送、分拣功能的一体化装置。应用自动化控制技术、机器视觉技术、数字图像处理技术完成了装置的理论研究、机器视觉系统、机械设计、硬件控制、鸡胚检测判别系统、装置检验等,可以有效地实现对强胚、弱胚、死胚、无精胚、倒置胚的自动判别与分拣。其主要内容如下:(1)提出了一个基于机器视觉的360°的鸡胚观测方法:光源从顶部照射鸡胚,侧面观察;鸡胚90度旋转,从4个方向拍摄图像,综合4张图像的血管分布面积、气室状态、鸡胚颜色来分析鸡胚,剔除不合格的鸡胚(弱胚、死胚、无精胚、倒置胚)。(2)根据提出的360°观测方法,开发设计了全自动鸡胚检验装置的机器视觉系统和机械装置。选择3W的LED光源、工业相机(维视MV-EM200C)、镜头(维视AFT-1214MP)、PC机设计了机器视觉系统。用SOLIDWORKS 2018设计了全自动鸡胚检验装置的机械结构,包括传送组件、照检组件以及分拣组件。传送组件用于支撑及传送蛋盘至照检区、分拣区。照检组件用于对鸡胚的吸提、鸡胚360°的旋转,实现对鸡胚的全方位图像采集。分拣组件是鸡胚判别完成后的执行机构,实现指定不合格鸡胚的剔除。(3)利用Altium Designer、立创EDA、Keil u Vision5设计了全自动鸡胚检验装置的硬件控制部分。含装置通讯方式及协议的设计、主控板设计、照检控制板设计、分拣控制板设计及固件设计等。实现对步进电机的三维运动控制、恒流LED驱动、多路真空气路的通断控制等。(4)利用Visual Studio 2017和emgucv3.1库建立了一种模拟人工照检,综和气室、血管、颜色特征的三步判定的鸡胚检测分类系统。其中的关键部分是结合局部自适应阈值和连通域去噪的方法提取血管特征。(5)利用铝型材为主骨架,搭建了全自动鸡胚检验装置。并对其关键部分进行了非生物性和生物性实验。包括恒流LED电路性能测试、步进电机的机械运动精度测试、真空气路的气密性测试,其中LED的恒流平均偏差小于2ma,步进电机的机械运动的平均偏差小于0.02mm,气密性压力偏差小于2pa。利用200个10-12日龄SPF鸡胚进行生物实验测试,达成了如下结果:强胚的判别准确率为92.5%.;弱胚的判别准确率为97.5%;死胚、无精胚和倒置胚的判别准确率为100%。
关哲[7](2021)在《基于机器视觉和深度学习的汽车仪表瑕疵检测技术研究》文中进行了进一步梳理随着互联网技术和电子信息技术的飞速发展,新型的全液晶汽车仪表逐渐应用于汽车座舱,相较于传统的机械式汽车仪表,这种新型的全液晶汽车仪表因为其本身的生产工艺以及对产品精度要求的提高,对检测提出了更高的要求。如何精准高效地检测汽车仪表瑕疵并对瑕疵进行准确分类是目前汽车仪表检测领域一个亟待解决的问题。现如今的汽车仪表瑕疵检测以人工目测检测分类为主,这种方式受人为主观影响较大,不仅效率较低,实时性以及准确性也无法得到保证。针对目前所存在的问题,本文提出了基于机器视觉结合深度学习的汽车仪表瑕疵检测方法,主要的研究内容如下:(1)首先设计并搭建了了汽车仪表瑕疵检测系统,根据汽车仪表的瑕疵类别以及系统的需求分析,完成了整个系统平台的设计搭建,包括硬件平台的设计以及硬件设备选型。(2)利用搭建好的系统平台对待测的汽车仪表图像进行采集,并对采集到的原始图像进行图像预处理,包括图像灰度化处理,图像滤波处理以及图像锐化处理,以便得到质量较好且干扰信息较少的汽车仪表图像。(3)研究分析了卷积神经网络的结构以及网络的训练过程和参数指标,对VGG19以及Inception-V4两种应用较为广泛的传统卷积神经网络进行了结构和特点分析,利用预处理后的汽车仪表图像建立汽车仪表瑕疵图像样本集对这两种网络进行训练,并对两种网络的训练结果进行分析。(4)针对两种传统网络所存在的收敛性以及网络性能的问题,设计了一种基于改进的Inception-V4网络模型的瑕疵识别分类算法,利用样本集对本文所提出的改进的Inception-V4网络行训练,并与两种传统网络的训练结果进行实验对比。通过训练过程的训练曲线以及利用测试集实验验证对比分析可知,本文所提出的方法不仅性能更好,速度更快,收敛性也更强,并且在正确率、精准率、召回率、F1 Score上以及检测速度上都有较大程度的提升。(5)通过Labview开发环境、MATLAB的Deep Learning工具箱和Tensor Flow深度学习框架对汽车仪表瑕疵检测软件系统进行开发,通过系统的性能测试,表明本系统对汽车仪表瑕疵检测识别分类的准确率达到了95%,错检率和漏检率都在2.5%以下,有良好的实用效果。
蒋倩男[8](2021)在《面向智能驾驶辅助系统的视觉感知关键技术研究》文中研究表明智能驾驶辅助系统(Advanced Driving Assistance System,ADAS)可以减少交通事故、降低人员伤害并提高驾驶舒适性,因此,ADAS相关技术的研究具有非常重要的意义。由于机器视觉能够获取丰富的信息且成本较低,使得基于视觉的感知技术被广泛应用于ADAS。本论文将视觉感知技术中与外部道路环境检测以及内部驾驶员状态监测相关的关键技术作为研究对象,研究并提出了基于机器视觉技术的解决方法,为ADAS的设计和开发提供了理论依据和技术支持。基于视觉的外部道路环境检测是指依据图像中的信息判断前方道路是否为可行驶区域,并能够在可行驶区域内准确检测出结构化道路中的车道线。一方面,由于道路图像容易受到不利视觉条件的影响,导致图像中的目标变得模糊、不可见,因此,在进行道路和检测之前需要对图像进行增强。另一方面,由于道路的环境和种类较复杂,检测算法很难同时兼顾准确率和时效性。基于视觉的内部驾驶员状态监测是指利用图像中驾驶员特征检测驾驶员的疲劳等级。由于光照、背景、拍摄角度以及驾驶员的特征等是随机变化的,且驾驶员的疲劳程度还会受到时间因素的影响,进而使得疲劳检测算法的鲁棒性不理想。针对上述问题,本文对视觉感知技术中不利视觉条件下道路图像增强、可行驶道路区域检测、车道线识别以及驾驶员疲劳监测四个关键技术展开深入研究。论文主要研究内容以及创新点主要包括以下四点:(1)提出了一种新的不利视觉条件下动态道路图像增强方法。首先,利用待处理图像中灰度特征和清晰度特征对不同不利视觉条件下的道路图像进行分类;然后,依据分类结果为不同不利视觉条件下的道路图像选择合适的增强算法,并基于图像特征动态调整增强算法的参数,进而使得该方法在保证时效性的同时,对不同不利视觉条件下的图像增强问题具有很强的适应性。(2)提出了基于卷积神经网络(Convolutional Neural Networks,CNN)和Gibbs能量函数的实时非结构化道路可行驶区域检测方法。首先,为提高第一帧检测的鲁棒性,基于改进的随机一致性采样(Random Sample Consensus,RANSAC)算法估计图像中不同区域的单应矩阵H,并将H作为CNN的输入对其进行训练,进而实现可行驶道路区域检测;其次,为提高后续相似帧检测的速率,从第一帧图像的检测结果中提取道路的颜色以及纹理特征,并基于二元分裂算法构建相应的高斯混合模型,然后利用Gibbs能量函数实现后续帧的道路检测。该方法克服了由于道路表面特征、结构特征不确定而导致的鲁棒性差的问题以及由于模型复杂、计算复杂度高而造成的时效性差的问题。(3)提出了一种新的基于特征与模型相结合的车道线检测方法。首先利用不变性特征:灰度特征以及形态特征,从可行驶区域内快速检测出车道线待选区域,并通过改进的概率霍夫变换算法(Progressive Probabilistic Hough,PPHT)获取车道线参数,依据车道线参数从车道线待选区域筛选出车道线区域。该方法不仅解决了基于模型检测中要求车道线结构与预设模型一致性问题、基于特征检测中实际车道线特征不稳定问题,而且对不同环境下(不利视觉条件、树荫以及脏污等)的结构化道路具有较强的适应性,且检测的准确率较高。(4)提出了基于CNN和长短期记忆网络(Long Short-Term Memory,LSTM)的驾驶员疲劳状态实时检测方法。首先,利用简单线性聚类算法(Simple Linear Clustering algorithm,SLIC)将图像分割成大小均匀的超像素,并将超像素作为CNN的输入,然后利用训练好的CNN获取眼部以及嘴部区域的位置和面积。在此基础上,提取眼部特征参数Perclos、嘴部特征参数MClosed、头部朝向特征参数Phdown,并将连续时间序列上的上述特征参数以及方向盘转角特征参数SA作为LSTM的输入,疲劳度等级作为输出,实时检测驾驶员的疲劳状态。该方法能够克服光照、背景、角度以及个体差异的影响,准确、快速地检测出驾驶员的面部、眼部以及嘴部等区域,并综合考虑了时间累积效应对疲劳的影响,进而使得最终检测准确率得到大幅提升。
张苏楠[9](2020)在《生猪异常行为多源监测及其信息融合方法的研究与应用》文中进行了进一步梳理畜牧业作为农业的重要组成部分,在国民经济发展中的基础地位不可动摇。综合考量养殖环境、品质及效率等因素,生猪集约化养殖意义重大。目前,现代集约化养猪场已经逐步实现无人值守,对无人值守养猪场中生猪异常行为进行智能监测,是实现安全养殖、高品质养殖和高效养殖的现实需求。本论文运用机器视觉技术、声音识别技术和超声波技术三种监测手段,从多角度对生猪异常行为进行数字化综合监测,最后采用多源信息融合方法对生猪多源多时段异常行为进行融合评价。主要研究内容如下:(1)基于机器视觉的生猪动作异常监测生猪聚散程度与生猪疾病预防、热舒适性密切相关,生猪打斗行为会影响生猪健康状况与福利水平。为了检测复杂环境下圈养生猪的聚散程度与打斗行为,采用机器视觉技术识别生猪过度聚集与打斗行为。针对复杂养殖环境下,传统目标检测方法在生猪个体检测过程中的局限性,提高对紧密接触生猪的检测精度,提出了结合改进多视窗检测方法和单点多盒检测器(Single Shot Multi Box Detector,SSD)的生猪目标检测方法,并定义了生猪离散度以表征生猪聚散程度,通过实验比较,设定合适的离散度阈值,实现生猪过度聚集检测。在生猪打斗行为识别过程中,针对生猪打斗行为特征,提出了结合帧间差分法(Frame Difference,FD)和SSD的运动生猪个体检测方法,可以有效排除环境因素与静止生猪对打斗行为识别的干扰,确定运动生猪位置,最后根据检测到的运动生猪位置信息与运动持续时间,设计了生猪打斗行为判别方法,该方法可以有效地识别圈养生猪的打斗行为,为饲养员判断生猪异常行为提供依据。(2)生猪异常声音的改进多重支持向量数据描述识别方法生猪在身体状况发生变化或外界环境刺激下会发出不同的声音,本论文选择常见的惊骇声与咳嗽声作为生猪异常声音。为了检测并分类生猪惊骇声和咳嗽声,提出了生猪异常声音的多重支持向量数据描述(Multiple Support Vector Data Description,Multi-SVDD)识别方法。针对训练样本标记错误容易导致Multi-SVDD在训练中出现欠拟合,影响识别精度的问题,根据每个训练样本的重要性赋予相应的权重,对Multi-SVDD进行改进,提高模型的容错能力。实验结果表明,改进Multi-SVDD可以有效地识别生猪异常声音,且具有较强的适用性。(3)生猪饮食异常的改进PSO-SVDD判断方法生猪饮食在一定程度上可以表征生猪的健康状况,本论文采用课题组设计的基于超声波的生猪饮食数据采集装置采集生猪饮食数据,以生猪每天的饮食次数与饮食时间数据为基础,提出采用SVDD对生猪饮食异常进行判断。针对SVDD中惩罚因子与核函数参数难以确定的问题,利用粒子群优化(Particle Swarm Optimization,PSO)算法对SVDD参数进行优化。由于生猪饮食异常具有一定的模糊性,传统决策函数进行模糊决策时精度受限,本论文通过构建模糊决策函数对PSO-SVDD进行改进,并利用改进PSO-SVDD模型对生猪饮食异常进行判断。实验结果表明,该方法可以更加准确地判断生猪饮食异常。(4)生猪多源多时段异常行为的灰色证据组合模型融合评价方法由于在生猪异常行为监测过程中,单一的监测手段很难全面、准确地实现生猪异常行为自动监测,因此需要从多角度、利用不同的监测手段进行融合判断。同时,为了避免单一时段异常判断结果的偶然性对异常等级评估造成影响,本论文采用结合灰色聚类评估模型与D-S证据理论的灰色证据组合模型对生猪多源多时段异常行为进行融合评价。针对D-S证据理论融合高冲突证据时无法得到合理结果的问题,引入证据可信度对组合规则进行改进。该方法可以有效地对生猪多源多时段异常行为进行融合评价,为饲养员提供有效的生猪异常信息,提高监测效率。针对集约化养猪场中生猪异常行为智能监测问题,设计了生猪异常行为多源监测系统,通过机器视觉技术、声音识别技术与超声波技术检测不同的异常信息,并对多源异常信息进行融合评价,有助于提高集约化养猪场的工作效率,为生猪行为监测从人工到数字化、智能化的升级转换提供了一定的理论支持和技术保障。
马海龙[10](2020)在《基于视觉伺服的细胞载玻片精确点胶封片方法研究》文中认为随着自动化控制技术与计算机技术的快速发展,各式各样的自动化设备已经应用到各种行业的实际生产中。发展到目前为止,除了常规的工业自动化应用,自动化控制技术也渗透到了比较热门的领域,如教育领域、服务业领域以及医疗领域等。尤其在医学图像检测领域,以视觉应用技术为主的自动化医疗器械逐步取代医务人员完成一些重复且具有较强规范性的工作,实现医学图像检测从传统手工检测到现代化自动检测的升级。本文就基于DNA倍体筛查项目产业升级的需求,对细胞载玻片样本制作的点胶、封装工序进行系统研究,结合工业自动化改造过程中的特点,提出了一种基于视觉伺服的细胞载玻片精确点胶封片方法。根据系统的开发顺序,本文基于系统的应用环境以及细胞载玻片样本制作工序的要求,先后是制定了点胶封装系统的总体设计方案、视觉伺服控制方案,针对于系统操作实现以及控制分别对系统硬件、软件开发环境进行了选择与设计,尤其是在运动控制单元,设计了对应的系统操作载物台、机械执行机构以及点胶封片功能性器件。另外依据样本中操作对象的实际特征,制定了一套视觉定位算法,即对染色程度较深的区域采用圆形检测的方式获取点胶封片位置,对染色程度较浅的区域则通过定位二维码中心点间接获取目标位置。其次由于机械臂运动坐标与定位得到的图像坐标所在的坐标系不同,导致机械臂无法直接使用定位的图像坐标进行运动,因此本文通过参考直接线性法设计了九点标定法来获取图像坐标系与机械臂坐标系之间的映射矩阵,通过该矩阵可对两坐标系中的坐标进行自由转换。最后结合前文对系统开发的研究工作,本文对基于视觉伺服系统的点胶封片的具体实现过程进行研究,该过程分为两个阶段,一是通过建立视觉反馈控制器对图像特征误差获取系统初始化的运动量,二是根据图像定位算法获取机械臂工作的运动路径。再者以实际样本操作对系统进行测试,得到了系统性能参数,如点胶精度、封片成功率、系统的故障率等。
二、用于细胞分析的机器视觉系统(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、用于细胞分析的机器视觉系统(论文提纲范文)
(1)神经形态视觉传感器的研究进展及应用综述(论文提纲范文)
1 引言 |
2 神经形态视觉模型与采样机理 |
2.1 生物视网膜视觉模型 |
2.2 差分型视觉采样及AER传输协议 |
2.3 积分型视觉采样 |
3 神经形态视觉传感器类型 |
3.1 DVS |
3.2 ATIS |
3.3 DAVIS |
3.4 CeleX |
3.5 Vidar |
3.6 仿视网膜视觉传感器性能对比 |
4 异步时空脉冲信号处理 |
4.1 异步时空脉冲信号分析 |
4.2 异步时空脉冲信号度量 |
4.3 异步时空脉冲信号编码 |
5 异步时空脉冲信号特征表达 |
5.1 频率累计图像 |
5.2 手工设计特征 |
5.3 端到端的深度网络 |
5.4 脉冲神经网络 |
6 神经形态视觉传感器应用 |
6.1 数据集及软件平台 |
6.1.1 仿真数据集 |
6.1.2 真实数据集 |
6.2 视觉场景图像重构 |
6.3 光流估计 |
6.4 目标识别 |
6.5 目标检测、跟踪与分割 |
6.5.1 目标检测 |
6.5.2 目标跟踪 |
6.5.3 目标分割 |
6.6 三维场景深度估计 |
6.7 姿态估计与视觉里程计 |
6.8 神经形态工程系统应用 |
7 研究挑战与可能发展方向 |
7.1 研究挑战 |
7.2 可能发展的方向 |
8 总结 |
(2)基于机器视觉的砂浆可泵性预测(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 相关领域国内外发展现状 |
1.2.1 可泵性研究现状 |
1.2.2 深度学习发展现状 |
1.3 论文的主要工作 |
1.4 论文的组织结构 |
第二章 可泵性评价与制作数据集 |
2.1 可泵性评价 |
2.2 原材料及试验方法 |
2.2.1 概述 |
2.2.2 原材料 |
2.2.3 试验方法 |
2.3 制作数据集 |
2.3.1 制作不同配比的砂浆 |
2.3.2 选取砂浆可泵性评价指标并标注可泵性标签 |
2.3.3 制作数据集 |
2.3.4 砂浆配比的优化及改进建议 |
2.4 本章小结 |
第三章 卷积神经网络与长短期记忆网络基础 |
3.1 引言 |
3.2 卷积神经网络基础 |
3.2.1 卷积层 |
3.2.2 池化层 |
3.2.3 激活函数 |
3.2.4 损失函数 |
3.2.5 正则化 |
3.2.6 优化函数 |
3.2.7 全连接层 |
3.2.8 三维卷积神经网络 |
3.3 LSTM基础 |
3.3.1 LSTM原理 |
3.3.2 LSTM的几种变体 |
3.4 本章小结 |
第四章 构建3D CNN网络模型预测砂浆可泵性 |
4.1 优化和改进网络结构 |
4.2 构建3D CNN网络模型 |
4.3 设置超参数 |
4.4 整体框架 |
4.5 实验 |
4.5.1 数据集预处理 |
4.5.2 实验环境 |
4.5.3 实验与结果分析 |
4.6 本章小结 |
第五章 构建3D CNN+ConvLSTM2D融合模型预测砂浆可泵性 |
5.1 优化和改进网络结构 |
5.2 构建3D CNN+ConvLSTM2D融合模型 |
5.3 设置超参数 |
5.4 整体框架 |
5.5 实验 |
5.5.1 实验环境 |
5.5.2 实验与结果分析 |
5.6 本文所有模型的性能分析与比较 |
5.7 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 后续工作展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(3)基于机器视觉的收藏币币面品相质量检测技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究背景及意义 |
1.1.1 收藏币品相研究背景 |
1.1.2 收藏币品相检测研究意义 |
1.2 国内外收藏币品相检测研究现状 |
1.3 课题研究内容 |
1.4 课题章节内容安排 |
第二章 收藏币币面品相质量检测系统设计 |
2.1 币面缺陷定义及分类 |
2.2 图像采集系统设计 |
2.2.1 机器视觉系统概述 |
2.2.2 系统总体结构设计 |
2.2.3 工业相机选型 |
2.2.4 光学镜头选型 |
2.2.5 光源选型 |
2.2.6 币图像采集平台机构设计 |
2.3 本章小结 |
第三章 基于图像特征的收藏币图像分类 |
3.1 收藏币币面图像特征概述 |
3.2 收藏币图像的预处理与分割 |
3.2.1 币图像的预处理 |
3.2.2 币图像的分割 |
3.3 收藏币图像识别分类 |
3.3.1 图像匹配及配准的主要方法 |
3.3.2 图像金字塔分层搜索 |
3.4 实验结果及分析 |
3.4.1 币样本图像采集 |
3.4.2 币配准模板创建 |
3.4.3 币类型识别配准测试 |
3.5 本章小结 |
第四章 收藏币币面特征分割及品相检测算法 |
4.1 图像区域特征参数描述 |
4.1.1 图像几何、形状特征常用参数描述 |
4.2 收藏币币面缺陷的提取及分类 |
4.2.1 基于阈值分割法的币面缺陷提取 |
4.2.2 基于几何、形状特征的币面缺陷分类及品相检测 |
4.2.3 实验结果分析 |
4.3 本章小结 |
第五章 收藏币币面品相质量检测方法实现 |
5.1 软件开发工具及软件功能分析 |
5.2 软件开发及应用 |
5.3 本章小结 |
第六章 结论与展望 |
6.1 主要结论 |
6.2 研究展望 |
参考文献 |
在学期间的研究成果 |
致谢 |
(4)基于机器视觉的刀具豁口检测系统关键技术研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
§1.1 课题的研究背景与意义 |
§1.2 国内外研究现状 |
§1.2.1 刀具状态检测技术的研究现状 |
§1.2.2 基于机器视觉的刀具状态检测技术研究现状 |
§1.2.3 豁口缺陷检测技术研究现状 |
§1.3 论文主要工作及其结构安排 |
§1.3.1 论文的主要工作 |
§1.3.2 论文的组织结构安排 |
第二章 刀具刃口显微图像的附着物去除方法 |
§2.1 理论知识 |
§2.1.1 卷积神经网络及其基本结构 |
§2.1.2 PReNet基线网络 |
§2.1.3 自注意力机制 |
§2.2 ARNet附着物去除模型 |
§2.2.1 二值掩膜引导模块 |
§2.2.2 去除过程学习模块 |
§2.2.3 自注意力精准分离模块 |
§2.2.4 特征整合模块 |
§2.3 刀具附着物数据集TA567 |
§2.4 实验结果与分析 |
§2.4.1 网络损失函数 |
§2.4.2 实验环境设置与评价指标 |
§2.4.3 客观定量结果 |
§2.4.4 主观评价结果 |
§2.4.5 豁口检测实验 |
§2.5 本章小结 |
第三章 刀具显微图像的亚像素边缘检测 |
§3.1 理论知识 |
§3.1.1 Zernike矩亚像素边缘检测原理 |
§3.1.2 Otsu全局阈值分割算法 |
§3.2改进Zernike矩模型 |
§3.2.1 Zernike矩尺寸增强模板 |
§3.2.2 三级灰度过渡模型 |
§3.2.3 Otsu灰度阈值自适应优化 |
§3.2.4 亚像素检测流程 |
§3.3 实验结果与分析 |
§3.4 本章总结 |
第四章 改进区域生长的刀具豁口检测算法 |
§4.1 区域生长算法 |
§4.2 改进区域生长算法 |
§4.2.1 自适应波谷种子点选取方法 |
§4.2.2 改进邻域搜索模型与差分敏感的生长条件 |
§4.2.3 改进区域生长算法流程 |
§4.3 实验结果与分析 |
§4.4 本章总结 |
第五章 刀具豁口检测系统设计 |
§5.1 硬件系统设计 |
§5.2 软件系统设计 |
§5.2.1 软件开发环境 |
§5.2.2 系统主界面 |
§5.2.3 系统功能模块 |
§5.3 本章小结 |
第六章 总结与展望 |
§6.1 全文总结 |
§6.2 未来展望 |
参考文献 |
致谢 |
作者在攻读硕士期间的主要研究成果 |
(5)基于机器视觉的产品表面缺陷检测关键算法研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 国内外现状 |
1.3 课题研究内容 |
1.4 论文组织结构 |
1.5 本章小结 |
第2章 表面缺陷检测算法基础 |
2.1 引言 |
2.2 表面缺陷检测系统 |
2.2.1 表面缺陷图像采集 |
2.2.2 挑战 |
2.2.3 发展趋势 |
2.2.4 图像预处理 |
2.2.5 感兴趣区域检测 |
2.3 显着性物体检测算法用于表面缺陷检测 |
2.4 深度学习基础 |
2.4.1 卷积神经网络 |
2.4.2 图像分类 |
2.4.3 物体识别 |
2.4.4 语义分割 |
2.5 本章小结 |
第3章 基于区域特征聚类显着性检测的表面缺陷分割算法 |
3.1 引言 |
3.2 算法 |
3.2.1 基于改进的SLIC图像超像素分割 |
3.2.2 特征提取 |
3.2.3 Mean Shift聚类 |
3.2.4 EBC计算每个聚类的显着图 |
3.2.5 循环 |
3.3 实验结果与分析 |
3.3.1 数据集和实验环境 |
3.3.2 结果与分析 |
3.4 本章小结 |
第4章 基于迁移学习和图像分割的表面缺陷检测算法 |
4.1 引言 |
4.2 算法 |
4.2.1 基于迁移学习和多尺度特征融合的表面缺陷检测算法 |
4.2.2 基于迁移学习和U-net的表面缺陷检测算法 |
4.2.3 迁移学习 |
4.2.4 数据增强 |
4.2.5 后处理 |
4.2.6 融合批标准化和卷积层 |
4.3 实验结果与分析 |
4.3.1 数据集 |
4.3.2 评价指标 |
4.3.3 实验环境 |
4.3.4 效果与分析 |
4.4 本章小结 |
第5章 融合分类和物体检测的表面缺陷检测算法 |
5.1 引言 |
5.2 算法 |
5.2.1 分类模型-改进的ResNet50 |
5.2.2 物体检测模型-增强的Faster R-CNN |
5.2.3 focal损失函数 |
5.2.4 数据增强 |
5.2.5 k-means++聚类算法 |
5.3 实验结果与分析 |
5.3.1 数据集 |
5.3.2 训练 |
5.3.3 评价指标 |
5.3.4 分类模型结果分析 |
5.3.5 物体检测模型结果分析 |
5.3.6 整体模型结果分析 |
5.4 本章小结 |
第6章 结束语 |
6.1 全文总结 |
6.2 展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(6)基于机器视觉的全自动鸡胚检验装置的设计(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 选题背景及研究目的和意义 |
1.2 国内外研究现状 |
1.3 论文的主要内容 |
1.4 章节安排 |
第2章 装置整体设计 |
2.1 机器视觉概述 |
2.2 机器视觉系统的构成 |
2.2.1 检测对象 |
2.2.2 检测方式 |
2.2.3 光源 |
2.2.4 相机及镜头 |
2.2.5 PC机 |
2.3 样品机机械设计 |
2.3.1 蛋盘传送组件 |
2.3.2 鸡胚照检组件 |
2.3.3 鸡胚分拣组件 |
2.4 样品机照检过程 |
2.5 本章小结 |
第3章 装置硬件设计 |
3.1 装置硬件功能 |
3.2 主控板 |
3.2.1 通讯方式选择及协议设计 |
3.2.2 电路设计 |
3.3 照检控制板 |
3.3.1 LED恒流驱动 |
3.3.2 真空气路控制电路 |
3.3.3 步进电机控制电路 |
3.3.4 其它电路 |
3.4 分拣控制板 |
3.5 固件设计 |
3.5.1 主电路板固件设计 |
3.5.2 步进电机固件设计 |
3.6 本章小结 |
第4章 鸡胚检测判别系统 |
4.1 鸡胚检测系统组成 |
4.2 预处理 |
4.3 分割和提取 |
4.3.1 基于RGB值的无精胚检测 |
4.3.2 基于气室面积的倒置胚检测 |
4.3.3 基于血管面积比的死胚、弱胚检测 |
4.4 分类 |
4.5 本章小结 |
第5章 装置检验 |
5.1 样品机搭建 |
5.2 装置非生物学测试 |
5.2.1 恒流LED电路性能测试 |
5.2.2 步进电机的机械运动精度测试 |
5.2.3 真空气路气密性测试 |
5.3 装置生物学测试 |
5.4 本章小结 |
第6章 结论与展望 |
6.1 结论 |
6.2 创新点 |
6.3 展望 |
参考文献 |
攻读硕士学位期间取得的成果 |
致谢 |
(7)基于机器视觉和深度学习的汽车仪表瑕疵检测技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 机器视觉技术发展现状 |
1.2.2 深度学习技术发展现状 |
1.2.3 汽车仪表检测研究现状 |
1.3 存在问题以及发展趋势 |
1.4 研究内容以及章节结构 |
第2章 汽车仪表瑕疵检测系统设计 |
2.1 汽车仪表瑕疵种类及特征分析 |
2.2 系统需求分析 |
2.3 检测系统总体方案 |
2.4 系统硬件平台设计与搭建 |
2.5 本章小结 |
第3章 汽车仪表图像采集和预处理 |
3.1 汽车仪表图像采集 |
3.2 图像灰度化 |
3.3 图像滤波 |
3.3.1 均值滤波 |
3.3.2 高斯滤波 |
3.3.3 双边滤波 |
3.3.4 滤波方法结果对比 |
3.4 图像锐化 |
3.4.1 拉普拉斯算子 |
3.4.2 Sobel算子 |
3.4.3 锐化方法结果对比 |
3.5 本章小结 |
第4章 基于卷积神经网络的汽车仪表瑕疵检测方法研究 |
4.1 卷积神经网络 |
4.1.1 卷积层 |
4.1.2 池化层 |
4.1.3 全连接层 |
4.1.4 损失函数 |
4.2 基于CNN的汽车仪表瑕疵检测 |
4.2.1 建立汽车仪表瑕疵图像样本数据集 |
4.2.2 数据集预处理 |
4.2.3 基于CNN的汽车仪表瑕疵检测 |
4.2.4 汽车仪表瑕疵检测基本原理 |
4.3 基于VGG19 的汽车仪表瑕疵识别分类算法 |
4.3.1 VGG19 网络结构 |
4.3.2 VGG19 网络训练及结果分析 |
4.4 基于Inception-V4 的汽车仪表瑕疵识别分类算法 |
4.4.1 Inception-V4 网络结构 |
4.4.2 Inception-V4 网络训练及结果分析 |
4.5 本章小结 |
第5章 基于改进的Inception-V4 的汽车仪表瑕疵检测 |
5.1 基于改进的Inception-V4 网络的瑕疵识别分类算法 |
5.1.1 改进的Inception-V4 网络结构 |
5.1.2 训练改进的Inception-V4 网络 |
5.2 分类网络模型评价指标 |
5.3 实验及对比分析 |
5.3.1 训练曲线结果对比分析 |
5.3.2 实验结果对比分析 |
5.4 本章小结 |
第6章 汽车仪表瑕疵检测系统软件设计与测试 |
6.1 开发环境简介 |
6.1.1 Labview简介 |
6.1.2 Tensor Flow简介 |
6.2 系统软件设计 |
6.2.1 系统软件总体设计 |
6.2.2 图像采集模块 |
6.2.3 图像预处理模块 |
6.2.4 瑕疵识别分类模块 |
6.2.5 检测信息显示及配置模块 |
6.3 系统整体性能测试 |
6.4 本章小结 |
第7章 结论 |
7.1 结论 |
7.2 展望 |
参考文献 |
作者简介及在学期间所取得的研究成果 |
致谢 |
(8)面向智能驾驶辅助系统的视觉感知关键技术研究(论文提纲范文)
致谢 |
摘要 |
abstract |
第一章 绪论 |
1.1 引言 |
1.2 国内外相关领域研究现状 |
1.2.1 基于机器视觉的ADAS国内外研究现状 |
1.2.2 视觉感知技术体系国内外研究现状 |
1.3 本文的研究内容以及创新点 |
1.4 本文的组织结构 |
1.5 本章小结 |
第二章 视觉感知关键技术分析 |
2.1 引言 |
2.2 不利视觉条件下道路图像增强技术 |
2.2.1 雾天低可见度图像增强 |
2.2.2 夜晚低对比度图像增强 |
2.3 可行驶道路区域检测技术 |
2.3.1 结构化道路可行驶区域检测 |
2.3.2 非结构化道路可行驶区域检测 |
2.4 车道线识别技术 |
2.4.1 基于模型的车道线识别 |
2.4.2 基于特征的车道线识别 |
2.4.3 基于深度学习的车道线识别 |
2.5 驾驶员疲劳检测技术 |
2.5.1 基于驾驶员生理信号的疲劳检测 |
2.5.2 基于车辆状态的疲劳检测 |
2.5.3 基于驾驶员特征的疲劳检测 |
2.6 本章小结 |
第三章 不利视觉条件下动态道路图像增强技术 |
3.1 引言 |
3.2 不同不利视觉条件下图像分类 |
3.2.1 不同不利视觉条件下的图像特征分析 |
3.2.2 待处理图像区域划分 |
3.2.3 C区域的灰度特征分析 |
3.2.4 区分白天和夜晚 |
3.2.5 构建图像清晰度评价模型 |
3.2.6 不同视觉条件下图像分类 |
3.3 图像增强 |
3.3.1 夜晚图像增强算法 |
3.3.2 白雾天图像增强算法 |
3.3.3 夜雾天图像增强算法 |
3.4 图像增强算法实验 |
3.4.1 实验数据集 |
3.4.2 实验结果与分析 |
3.5 本章小结 |
第四章 非结构化道路可行驶区域实时检测技术 |
4.1 引言 |
4.2 基于平面单应性以及CNN的道路可行驶区域检测 |
4.2.1 立体视觉平面单应性 |
4.2.2 基于改进RANSAC算法估计单应矩阵 |
4.2.3 基于CNN的道路可行驶区域检测 |
4.3 基于颜色以及纹理特征的道路可行驶区域检测 |
4.3.1 构建颜色GMMs模型 |
4.3.2 构建纹理GMMs模型 |
4.3.3 基于Gibbs能量函数的道路可行驶区域检测 |
4.3.4 GMMs模型的更新策略 |
4.4 实时非结构化道路可行驶区域检测算法实验 |
4.4.1 实验数据集 |
4.4.2 参数设置与网络结构设计 |
4.4.3 实验结果与分析 |
4.5 本章小结 |
第五章 车道线实时检测技术 |
5.1 引言 |
5.2 车道线区域检测 |
5.3 获取车道线参数 |
5.4 车道线检测算法实验 |
5.4.1 实验数据集 |
5.4.2 参数设置 |
5.4.3 实验结果与分析 |
5.5 本章小结 |
第六章 驾驶员疲劳状态实时检测技术 |
6.1 引言 |
6.2 基于SLIC的超像素分割 |
6.3 基于CNN获取眼部以及嘴部区域 |
6.3.1 CNN的结构 |
6.3.2 CNN的求解 |
6.4 特征参数提取 |
6.4.1 眼部特征参数 |
6.4.2 嘴部特征参数 |
6.4.3 面部朝向特征参数 |
6.4.4 方向盘特征参数 |
6.5 基于LSTM的驾驶员疲劳检测 |
6.6 驾驶员疲劳状态实时检测算法实验 |
6.6.1 实验数据集 |
6.6.2 确定超像素分割参数K的值 |
6.6.3 CNN的参数设置与网络结构设计 |
6.6.4 基于CNN眼部以及嘴部区域检测 |
6.6.5 基于LSTM检测驾驶员疲劳状态 |
6.7 本章小结 |
第七章 总结和展望 |
7.1 论文总结 |
7.2 论文不足和展望 |
参考文献 |
攻读博士学位期间的学术活动及成果情况 |
(9)生猪异常行为多源监测及其信息融合方法的研究与应用(论文提纲范文)
摘要 |
ABSTRACT |
英文缩写对照表 |
第1章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 机器视觉技术的研究现状 |
1.2.2 音频监测技术的研究现状 |
1.2.3 超声波技术研究现状 |
1.2.4 多源信息融合研究现状 |
1.3 论文主要研究内容和章节安排 |
1.3.1 论文主要研究内容 |
1.3.2章节安排 |
1.4 本章小结 |
第2章 基于机器视觉技术的生猪动作异常监测 |
2.1 基于机器视觉技术的生猪异常行为监测总体结构 |
2.2 生猪生长周期分析 |
2.3 生猪视频采集与预处理 |
2.3.1 生猪视频采集 |
2.3.2 生猪图像预处理 |
2.4 基于改进SSD的生猪目标检测研究 |
2.4.1 卷积神经网络 |
2.4.2 SSD基本结构 |
2.4.3 SSD网络训练 |
2.4.4 SSD基础网络 |
2.4.5 生猪目标的改进SSD检测方法 |
2.4.6 基于改进SSD的生猪目标检测结果与分析 |
2.5 生猪过度聚集的改进SSD检测方法研究 |
2.6 生猪打斗行为的FD-SSD检测方法研究 |
2.6.1 基于帧间差分法的生猪移动像素提取 |
2.6.2 基于SSD的运动生猪个体检测 |
2.6.3 生猪打斗行为判别方法 |
2.6.4 生猪打斗行为的FD-SSD检测方法实验结果与分析 |
2.7 本章小结 |
第3章 生猪异常声音的改进多重支持向量数据描述识别方法 |
3.1 生猪异常声音识别总体结构 |
3.2 生猪异常声音分析与生猪声音信号采集 |
3.2.1 生猪异常声音分析 |
3.2.2 生猪异常声音采集 |
3.3 生猪声音信号预处理 |
3.3.1 生猪声音能量检测 |
3.3.2 生猪混合声音分离 |
3.3.3 生猪声音降噪 |
3.3.4 生猪声音端点检测 |
3.3.5 生猪声音分帧加窗 |
3.4 生猪声音特征参数提取 |
3.4.1 生猪声音短时能量 |
3.4.2 生猪声音短时过零率 |
3.4.3 生猪声音线性预测倒谱系数 |
3.4.4 生猪声音梅尔频率倒谱系数 |
3.4.5 生猪声音耳蜗滤波倒谱系数 |
3.4.6 生猪声音特征参数提取结果 |
3.5 生猪异常声音的改进多重支持向量数据描述识别方法 |
3.5.1 支持向量数据描述基本步骤 |
3.5.2 多重支持向量数据描述 |
3.5.3 改进多重支持向量数据描述 |
3.6 生猪异常声音识别实验结果与分析 |
3.6.1 生猪声音独立源分离 |
3.6.2 生猪声音降噪结果与分析 |
3.6.3 生猪异常声音识别结果与分析 |
3.7 本章小结 |
第4章 生猪饮食异常的改进PSO-SVDD判断方法 |
4.1 生猪饮食异常判断总体结构 |
4.2 基于超声波的生猪饮食数据采集装置 |
4.3 基于改进SVDD的生猪饮食异常判断 |
4.4 基于改进粒子群优化算法的SVDD参数寻优 |
4.4.1 粒子群算法基本原理 |
4.4.2 基于粒子变异的粒子群优化算法 |
4.5 基于改进PSO-SVDD的生猪饮食异常判断 |
4.5.1 样本归一化 |
4.5.2 构建适应度函数 |
4.5.3 改进PSO优化SVDD参数 |
4.6 实验结果与分析 |
4.6.1 不同参数下SVDD训练结果 |
4.6.2 改进SVDD决策函数前后生猪饮食异常判断结果比较 |
4.6.3 改进PSO优化SVDD参数结果 |
4.6.4 基于改进PSO-SVDD的生猪饮食异常判断结果 |
4.7 本章小结 |
第5章 生猪多源多时段异常行为的灰色证据组合模型融合评价方法 |
5.1 生猪异常概率计算 |
5.2 基于灰色证据组合模型的生猪多源多时段异常融合评价总体结构 |
5.3 基于灰色聚类评估模型的生猪多源异常评估 |
5.3.1 灰色聚类评估模型相关概念 |
5.3.2 构建白化权函数 |
5.3.3 确定指标组合权重 |
5.4 基于D-S证据理论的生猪多时段异常评估结果融合 |
5.4.1 D-S证据理论基本原理 |
5.4.2 D-S证据理论的改进组合规则 |
5.5 生猪多源多时段异常行为融合评价实例分析 |
5.5.1 低冲突证据融合 |
5.5.2 高冲突证据融合 |
5.6 生猪异常行为智能监测管理平台 |
5.6.1 用户登录 |
5.6.2 生猪异常行为智能监测主画面 |
5.6.3 生猪动作异常监测 |
5.6.4 生猪声音异常监测 |
5.6.5 生猪饮食异常监测 |
5.7 本章小结 |
第6章 结论 |
6.1 结论 |
6.2 论文创新点 |
6.3 展望 |
参考文献 |
攻读学位期间取得的科研成果 |
致谢 |
(10)基于视觉伺服的细胞载玻片精确点胶封片方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 本课题的研究背景及意义 |
1.2 细胞载玻片样本标准制作过程 |
1.3 点胶机国内外研究现状 |
1.4 机器人视觉伺服国内外研究现状 |
1.5 本课题研究的主要内容 |
第2章 玻片点胶封装系统方案及硬件设计 |
2.1 系统设计需求 |
2.2 点胶封装系统总体方案设计 |
2.3 视觉伺服系统设计 |
2.3.1 控制方案 |
2.3.2 伺服控制工作流程 |
2.4 视觉系统硬件选型 |
2.4.1 光源 |
2.4.2 相机 |
2.4.3 镜头 |
2.5 运动控制系统硬件设计 |
2.5.1 载物台 |
2.5.2 机械执行机构 |
2.5.3 点胶执行单元 |
2.5.4 封装执行单元 |
2.6 软件设计 |
2.6.1 软件开发环境 |
2.6.2 图像处理软件 |
2.7 本章小结 |
第3章 玻片点胶系统的机器视觉算法与实现 |
3.1 图像预处理 |
3.1.1 图像灰度化 |
3.1.2 直方图均衡化 |
3.1.3 图像滤波去噪 |
3.1.4 图像二值化分割 |
3.1.5 边缘检测 |
3.2 图像定位 |
3.2.1 霍夫圆检测 |
3.2.2 最小二乘法 |
3.3 二维码定位 |
3.4 本章小结 |
第4章 点胶系统的视觉成像标定 |
4.1 相机标定 |
4.1.1 相机成像模型 |
4.1.2 相机标定方法 |
4.1.3 实验测试 |
4.2 运动平台标定 |
4.3 本章小结 |
第5章 视觉伺服精确点胶封片方法实现 |
5.1 系统搭建 |
5.1.1 系统结构 |
5.1.2 I\O控制流程 |
5.2 视觉伺服系统实现 |
5.2.1 构造图像雅克比矩阵 |
5.2.2 建立视觉反馈控制器 |
5.2.3 图像特征误差的获取 |
5.3 精确点胶封片工序实现 |
5.3.1 点胶封片目标位置获取 |
5.3.2 点胶封片操作路径规划 |
5.3.3 上位机控制界面开发 |
5.3.4 软件开发功能性模块设计 |
5.4 系统测试 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
在学期间主要科研成果 |
一、发表学术论文 |
二、其他科研成果 |
四、用于细胞分析的机器视觉系统(论文参考文献)
- [1]神经形态视觉传感器的研究进展及应用综述[J]. 李家宁,田永鸿. 计算机学报, 2021(06)
- [2]基于机器视觉的砂浆可泵性预测[D]. 冯灏喆. 电子科技大学, 2021(01)
- [3]基于机器视觉的收藏币币面品相质量检测技术研究[D]. 罗彰. 北方工业大学, 2021(01)
- [4]基于机器视觉的刀具豁口检测系统关键技术研究[D]. 梁智滨. 桂林电子科技大学, 2021(02)
- [5]基于机器视觉的产品表面缺陷检测关键算法研究[D]. 王帅. 中国科学院大学(中国科学院沈阳计算技术研究所), 2021(09)
- [6]基于机器视觉的全自动鸡胚检验装置的设计[D]. 薛文杰. 长春理工大学, 2021(02)
- [7]基于机器视觉和深度学习的汽车仪表瑕疵检测技术研究[D]. 关哲. 吉林大学, 2021(01)
- [8]面向智能驾驶辅助系统的视觉感知关键技术研究[D]. 蒋倩男. 合肥工业大学, 2021(02)
- [9]生猪异常行为多源监测及其信息融合方法的研究与应用[D]. 张苏楠. 太原理工大学, 2020(01)
- [10]基于视觉伺服的细胞载玻片精确点胶封片方法研究[D]. 马海龙. 齐鲁工业大学, 2020(02)