车超
- 作品数:10 被引量:15H指数:2
- 供职机构:大连大学信息工程学院先进设计与智能计算省部共建教育部重点实验室更多>>
- 发文基金:国家自然科学基金辽宁省自然科学基金更多>>
- 相关领域:自动化与计算机技术经济管理语言文字更多>>
- 基于子词的历史典籍术语对齐方法被引量:1
- 2016年
- 由于历史典籍术语存在普遍的多义性且缺少古汉语分词算法,使用基于双语平行语料的对齐方法来自动获取典籍术语翻译对困难重重。针对上述问题,该文提出一种基于子词的最大熵模型来进行典籍术语对齐。该方法结合两种统计信息抽取频繁在一起出现的字作为子词,使用子词对典籍进行分词,解决了缺少古汉语分词算法的问题。针对典籍术语的多义性,根据典籍术语的音译模式制定音译特征函数,并结合其他特征使用最大熵模型来确定术语的翻译。在《史记》双语平行语料上的实验表明,使用子词的方法远远优于未使用子词的方法,而结合三种特征的最大熵模型能有效的提高术语对齐的准确率。
- 车超郑晓军
- 关键词:最大熵模型
- 使用通道融合和序列平稳化策略的长期时间序列预测方法
- 2025年
- 长期时间序列预测在现实场景中扮演重要角色.先前的研究表明,基于Transformers的模型采用的逐点自注意力会增加计算复杂度,而基于线性结构和通道独立的模型可以获得更高的效率和准确性.然而,长期时间模式在不同通道之间也存在难以抽取的依赖关系.为了解决计算复杂度高和复杂时间模式难以捕捉的问题,该文提出了通道融合和序列平稳化模型,模型结合了通道独立与通道依赖的训练策略,基于线性结构发掘序列单个通道的相关性,并使用由傅里叶运算启发的卷积结构来自适应地融合不同的通道.同时,通过堆叠序列通道融合-分解模块,进一步提高模型的预测性能.此外,该文在子序列级别引入了平稳化与反平稳化模块,从而提高了模型的泛化能力.在长期预测方面,所提模型在3个通用时序数据集上的准确度超越了其他基准模型.
- 赵龙港车超车超
- 关键词:时间序列预测
- 幻觉主动缓解的糖尿病问诊大模型
- 2025年
- 糖尿病的治疗是一项长期且高度个性化的工作,给患者的日常生活带来了巨大负担。患者通过医学大语言模型进行糖尿病问诊能有效减轻患者的医疗负担,但大语言模型在处理医学等专业领域文本时更可能会产生幻觉,即错误、无意义或与输入不匹配的输出。且现有的幻觉缓解技术在医学领域的准确率并不理想,这会极大地影响大语言模型的准确率。为了解决这一问题,提出一种结合指令微调和检索增强生成的幻觉自查与主动缓解方法,主要在生成过程前对用户提问形成附加知识,在生成过程后通过相似度对比判断幻觉是否产生。实验在多个医学数据集上进行,在大规模糖尿病多轮对话数据集上取得了0.79的F1值、2.38的BLEU-4值和9.26的Rouge-l值,在准确率和生成效率方面均优于现有的大语言模型幻觉缓解技术。
- 张乐车超车超
- 关键词:糖尿病问答系统
- 基于语义关联图的词义消歧方法
- 2014年
- 为了充分利用和整合词义消歧不同的知识库和语义资源,本文提出了一种基于语义关联图的方法。该方法以语义关系作为边,以词语的概念作为节点建立语义关联图,然后通过计算词义与上下文词语在语义关联图中的关联强度来确定歧义词的词义。语义关联图能够将多种消歧知识源比如词典、标注语料和生语料中的知识整合在一起,扩大了消歧知识的来源。本文方法在Senseval-3汉语词汇样本消歧任务中选择两个词,与一种基于知识的方法和有指导的方法进行了对比实验,实验结果验证了本文方法的有效性。
- 车超郑晓军
- 关键词:词义消歧知网
- 基于原型语义增强和动态筛选的半监督关系抽取方法
- 2025年
- 针对现有半监督关系抽取模型的监督信号不足和伪标签误差累积问题,提出一种融合原型语义和动态筛选机制的关系抽取方法。通过对比学习技术增强关系原型表示,构建一个能够区分不同关系类型的语义嵌入空间;设计动态筛选模块自适应选择高置信度的伪标签,执行正反馈迭代并减少确认偏差。在公共数据集TACRED和SemEval上的实验结果表明,该模型与当前表现最好的模型fmLRE相比,关系抽取的F1值平均提升了0.97%和3.63%,验证了模型在半监督关系抽取任务上的有效性。
- 宋潇楠王成汗车超费宏程
- 关键词:关系抽取半监督学习
- 面向中国海关进出口商品税率检测的预训练语言模型CC-BERT
- 2024年
- 判定商品税率以便进行税收是海关最重要的职能之一,其肩负着国家财政收入与再分配的重要作用。预训练语言模型(BERT)的提出,刷新了众多自然语言处理任务的最优结果。但是由于海关文本数据的特殊性,导致BERT在海关进出口商品税率检测(文本分类)任务中表现较差。针对这个问题,该文提出一种新的预训练语言模型CC-BERT。在模型预训练阶段,提出了全要素掩蔽策略以及预测规格型号与申报要素是否对齐(NCA)两种全新的预训练策略。CC-BERT可以降低既定文本顺序对模型性能的负反馈,以及加强规格型号与申报要素之间的联系。在真实的海关税率检测任务上的实验结果表明,该方法具有更强的鲁棒性,分类性能指标优于基线模型,F_(1)值在两个数据集上分别达到90.52%和80.10%。
- 周成杰车超张强周东生
- 面向海关进出口商品税率检测的归纳交互网络模型
- 2023年
- 中国海关传统的人工商品税率审查方式存在效率低、判断依据不一致、精度不高等问题,使用文本分类方法对商品分类自动确定税率可以有效降低海关税率风险。但面向海关商品数据进行分类时,商品类别具有层次性,同一大类下的许多子类别的商品描述具有高度相似性,给商品分类带来了很大的挑战。因此,提出了一种归纳交互网络模型,在BERT和CNN基础上加入归纳和交互指导模块。在归纳模块中采用动态路由算法对CNN提取的特征进行迭代运算,可以有效解决相邻特征融合和冗余问题。同时,为了解决不同子类别之间特征相似问题,提高分类性能,引入交互指导模块,该模块主要是将归纳模块提取的特征信息同[CLS]分类向量进行交互。在真实的海关数据集上进行实验,实验结果表明,该方法能达到较好的效果,其中准确率高达92.98%,且性能明显优于各基线模型。
- 吴安奇车超张强周东生
- 关键词:中国海关动态路由
- 融合多层次信息的海关同义词识别方法被引量:2
- 2022年
- 在海关进出口商品文本信息中,往往会用不同的词语描述同一商品的特征,识别这些商品的特征同义词能更好地进行观点汇总,进而对同一类特征的商品进行涉税风险的防控。针对海关申报要素短语的特点,提出一种融合多层次信息的卷积神经网络模型,构建并训练了一个基于孪生和三级网络结构的Sentence-BERT,其对相近的要素短语具有更好的语义表示,弥补了word2vec短文本词嵌入特征离散稀疏的不足。利用多尺寸卷积核提取要素短语的不同特征。通过BiLSTM神经网络学习要素短语的语序信息,并利用注意力机制分配关键词权重。获得的全连接融合同义词语义特征和关键词特征,通过softmax层进行预测。实验证明,融合多层次信息的卷积模型比其他模型有更好的表现。
- 刘大为车超魏小鹏
- 关键词:同义词识别卷积神经网络
- 基于大语言模型多轮对话的推荐模型研究被引量:1
- 2025年
- 近来结合大语言模型的推荐方法在提高推荐准确度和增强用户体验等方面展现出明显的优越性。然而这些方法存在没有充分利用用户信息、仅使用单轮对话无法学习用户多次交互的行为特征、大语言模型与推荐系统之间存在巨大的语义差异等问题。针对这些问题,提出了一个基于大语言模型多轮对话模式的推荐模型。该模型利用矢量量化技术将用户信息转化为用户索引,并通过微调任务把大语言模型的语言语义与推荐系统的协作语义整合,不仅学习了用户特征而且缓解了语义差异问题;将用户索引与历史交互数据拼接成提示语,再经过多轮对话机制进行推荐微调,从而学习用户交互行为之间的特征。模型在亚马逊Instructions、Arts和Games三个数据集上进行实验,结果表明模型在命中率(HR)和归一化折损累计增益(NDCG)两个评价指标上优于对比基线算法,在三个数据集上与最优对比基线算法相比,HR平均提升10.53%,NDCG平均提升5.10%,证明了模型的有效性。
- 常保发车超车超
- 关键词:推荐系统
- 基于双向对齐与属性信息的跨语言实体对齐被引量:11
- 2022年
- 实体对齐表示在不同的知识图谱中查找引用相同现实身份的实体。目前主流的基于图嵌入的实体对齐方法中的对齐实体通常具有相似的属性,有效利用属性信息可提升实体对齐效果,同时由于不同知识图谱之间的知识分布差异,仅考虑单个方向的对齐预测会导致预测结果出现偏差。针对上述问题,提出一种改进的跨语言实体对齐方法。利用融合属性信息的双向对齐图卷积网络模型,将前馈神经网络编码实体对应的属性信息与初始的实体嵌入相结合,得到联合属性信息的实体表示,并使用双向对齐机制实现跨语言的实体对齐预测。在3个跨语言数据集上的实验结果表明,该方法通过融合更多的知识图谱信息增强了实体表示能力,并且利用双向对齐机制缓解了数据分布差异问题,相比基于图嵌入的实体对齐方法整体性能更优。
- 车超刘迪
- 关键词:知识图谱属性信息