请选择 目标期刊

基于高斯混合模型的现代汉语构式成分自动标注方法 下载:47 浏览:342

黄海斌1 常宝宝2 詹卫东1,2,3 《中文研究》 2020年3期

摘要:
现代汉语构式成分自动标注作为文本自动标注任务之一,其最大的困难在于,当不存在标注语料作为训练数据时,如何从生语料中挖掘不同类型的构式成分相关的知识并进行标注,特别是面对构式序列在句中的边界难以判断的情况。该文试图借助高斯混合模型聚类方法,结合句中每一个字的位置特征与构式形式本身的语言学特征,融合正则表达式匹配结果信息,挖掘句子中的构式实例序列,并对构式内部成分进行自动标注。相较于仅基于正则表达式匹配和词性匹配的自动标注结果,该方法的F1分别至少提高了17.9%(半凝固型构式)、19.3%(短语型构式)、14.9%(复句型构式)。

基于GMM的文本规则挖掘的粗糙集方法研究 下载:39 浏览:340

洪壮壮 黄兆华 万仲保 张薇 高梦茜 《当代中文学刊》 2020年4期

摘要:
领域文本具有结构复杂、相似性高以及动态变化等特点,且存在着连续型与离散型并存的混合数据,这在一定程度上限制了知识发现方法对文本规则的挖掘效率。针对这一问题,该文提出了基于GMM与粗糙集的文本规则挖掘方法。该方法首先根据目标数据的属性类型构造信息表;然后利用高斯混合模型(GMM,Gaussian Mixture Model)聚类算法对连续数据进行聚类划分,依此对数据进行离散化及状态约简,并生成决策表;最后利用粗糙集理论对决策表进行属性约简,通过约简表对决策规则进行提取。实验结果表明:相比于传统的方法,该文方法拥有更高的抽取精度以及较强的属性约简能力,其信息抽取的平均准确率与F1值能够达到95.0%和95.7%。

一种基于GMM和MeanShift的目标跟踪算法 下载:93 浏览:504

陈超1 赫春晓2 《测绘科学与技术》 2020年2期

摘要:
经典MeanShift算法仅使用了影像的颜色直方图信息表示目标特征,并不包含目标的空间位置、纹理特征等其它信息,因此当目标被遮挡或目标和背景颜色相似时,容易跟踪失败。针对此种情况,结合了颜色直方图与空间位置信息对经典算法进行改进。在获取目标和背景区域的样本数据后,利用高斯混合模型获取每个颜色单元的质心位置,并利用颜色直方图与空间信息计算得到新的候选区域中心位置,进而完成目标跟踪。实验表明,改进后的算法使用了目标区域颜色分布的空间信息,改善了传统MeanShift算法中丢失像素点空间信息的不足,在背景复杂时依然能够成功跟踪;避免了迭代计算,提高了跟踪效率。

基于自适应码率分配的压缩传感深度视频编码方法 下载:79 浏览:460

王康1 兰旭光1 李翔伟2 《人工智能研究》 2018年8期

摘要:
压缩传感深度视频(CSDV)是由深度视频经过压缩得到,它的冗余信息仍然巨大,由此,文中提出基于高斯混合模型和边缘码率分配的深度视频编码方法.在时域方向上,使用压缩传感,压缩八帧深度视频,得到一帧CSDV图像.为了减小量化的计算复杂度,将一帧CSDV图像分割成一系列大小相同且互不重合的视频块,使用Canny算子作为边界提取工具提取视频块的边界.根据每个视频块中非零像素所占的百分比,给不同的视频块分配不同的比特数.在模型中,使用高斯混合模型建模这些视频块,用于设计乘积矢量量化器,再使用乘积矢量量化器量化这些视频块.

融合连续区域特性和背景学习模型的显著计算 下载:82 浏览:462

纪超1 黄新波1 刘慧英2 张慧莹1 邢小强1 《人工智能研究》 2018年8期

摘要:
为了提高显著性模型的计算效率,提出基于连续区域特性和背景学习的模型,分别提取图像的显著区域,并进行融合.首先计算区域显著目标像素与周围像素位置的距离,提出基于贝叶斯的区域显著性对比的度量方法.然后采用连续性区域合并,合并空洞区域与其最相似的邻居区域.之后采用3种典型的显著性算法处理同一幅图像,得到不同的显著特征图,采用反差法得到各特征图的背景,建立混合高斯背景模型,加权学习合成背景图,再与原图作差得到前景显著区域.最后结合细胞调节规律融合得到的显著区域.在SED1、ASD图像库中测试文中算法,所得的F-measure、平均误差都较优.

基于监控视频的前景目标提取 下载:49 浏览:498

刘钱源 杨欢欢 刘培鑫 张承进 《建模与系统仿真》 2018年1期

摘要:
对含有动、静态背景的稳定图像处理时,对比了主成分追踪鲁棒主成分分析法(RPCA)、贝叶斯鲁棒主成分分析法(Bayesian RPCA)和高斯混合模型的鲁棒主成分分析法(MoG-RPCA),3种方法对静态背景下的前景提取都较为完整.而动态背景下只有Bayesian RPCA和MoG-RPCA提取出了完整的前景目标,但是Bayesian RPCA计算速度很慢,且不能够处理复杂噪声.所以MoG-RPCA模型更具有对复杂噪声的适应性,动、静态背景情况下均提取出精度较高的前景目标,且具有较快的计算速度.当图像不稳定时,采用改进的MoG-RPCA模型对非稳定拍摄的抖动视频进行前景目标提取,并在第197帧抖动图像中清晰地提取出显著前景目标,且运算速度较快.在为了快速找到目标出现的帧时,对高斯混合模型背景差分法进行改进,利用K-means聚类算法快速得到聚类中心点,然后作为高斯混合模型背景更新时的初始化均值参数,从而提高在复杂场景下前景目标的检测精度.对于多角度追踪任务,不同角度、近似同一地点的多个监控视频图像中前景目标的提取,可采用跨摄像头视角跟踪结果融合的方法,然后对目标进行匹配.
[1/1]
在线客服::点击联系客服
联系电话::400-188-5008
客服邮箱::service@ccnpub.com
投诉举报::feedback@ccnpub.com
人工客服

工作时间(9:00-18:00)
官方公众号

科技成果·全球共享