• 数据故事化方法:析出、重组与叙事

    分类: 图书馆学、情报学 >> 情报过程自动化的方法和设备 提交时间: 2024-03-12

    摘要: 目的/意义 融合可解释性结果的数据故事化方法为解决数据认知困难、预测结果难以理解以及模型决策可信度低等问题提供了新策略。 方法/过程 梳理了模型无关局部可解释性技术的解释形式、数据故事的叙事结构以及目前数据故事化研究中采用的方法,基于可解释性理论与数据故事化实现模式构建了“析出—重组—叙事”的数据故事化模型,利用定义的要素元组给出数据故事映射流程,明确了实现故事化模型设计的关键技术。 结果/结论 在数据故事化模型设计的理论指导下,本研究提出面向解释结果的“扇形”故事化实现路径和融合解释结果与故事化模型要素的交互框架,并通过案例研究验证数据故事化方法在结果解释方面的实用价值。通过构建基于可解释性结果的数据故事化方法体系框架,为扩展具备数据感知与认知、可辅助智能决策功能的故事化路径提供新思路。

  • 基于汽车研发中心实践的知识管理实施路径研究

    分类: 图书馆学、情报学 >> 情报过程自动化的方法和设备 提交时间: 2023-01-13

    摘要: 知识经济时代,越来越多的企业开始推行知识管理,以提升核心竞争力。而如何找准 知识管理实施的业务切入点并快速导入知识管理往往是企业最为关注的问题。因此,本文基 于成功实施知识管理的核心策略以及某汽车研发中心知识管理实践,从基础建设、推广及迭 代三个阶段归纳了知识管理实施的15个关键步骤,并结合相关的方法或实践案例进行分析, 指导企业从0到1成功实施知识管理。

  • 基于文本生成技术的历史古籍事件识别模型构建研究

    分类: 图书馆学、情报学 >> 情报过程自动化的方法和设备 提交时间: 2022-08-31

    摘要: 目的 对比序列标注方法和文本生成方法在历史古籍事件识别上的表现,以构建历史古籍事件识别模型。 方法 本文选取《三国志》为原始语料,序列标注实验对《三国志》事件数据集进行BMES标注,构建BBCN-SG模型,文本生成实验构建T5-SG模型,对比两种方法的表现。又构建RoBERTa-SG、NEZHA-SG模型展开生成模型的对比实验。结合三个文本生成模型,融入Stacking集成学习的思想,构建Stacking-TRN-SG模型。 结果 在历史古籍事件识别建模问题上,文本生成方法的表现明显优于序列标注方法。而在文本生成方法中,三个模型表现则是RoBERTa-SG > T5-SG > NEZHA-SG。Stacking集成学习大大提高了生成模型的识别效果。 局限 本文计算资源有限,Stacking-TRN-SG模型缺少在其他历史古籍语料中的应用研究。 结论 本文构建的Stacking-TRN-SG模型初步实现历史古籍的自动事件识别。

  • Masked Sentence Model based on BERT for Move Recognition in Medical Scientific Abstracts

    分类: 计算机科学 >> 自然语言理解与机器翻译 分类: 图书馆学、情报学 >> 情报过程自动化的方法和设备 提交时间: 2019-10-29

    摘要: Purpose: Move recognition in scientific abstracts is an NLP task of classifying sentences of the abstracts into different types of language unit. To improve the performance of move recognition in scientific abstracts, a novel model of move recognition is proposed that outperforms BERT-Base method. Design: Prevalent models based on BERT for sentence classification often classify sentences without considering the context of the sentences. In this paper, inspired by the BERT's Masked Language Model (MLM), we propose a novel model called Masked Sentence Model that integrates the content and contextual information of the sentences in move recognition. Experiments are conducted on the benchmark dataset PubMed 20K RCT in three steps. And then compare our model with HSLN-RNN, BERT-Base and SciBERT using the same dataset. Findings: Compared with BERT-Base and SciBERT model, the F1 score of our model outperforms them by 4.96% and 4.34% respectively, which shows the feasibility and effectiveness of the novel model and the result of our model comes closest to the state-of-the-art results of HSLN-RNN at present. Research Limitations: The sequential features of move labels are not considered, which might be one of the reasons why HSLN-RNN has better performance. And our model is restricted to dealing with bio-medical English literature because we use dataset from PubMed which is a typical bio-medical database to fine-tune our model. Practical implications: The proposed model is better and simpler in identifying move structure in scientific abstracts, and is worthy for text classification experiments to capture contextual features of sentences. Originality: The study proposes a Masked Sentence Model based on BERT which takes account of the contextual features of the sentences in abstracts in a new way. And the performance of this classification model is significantly improved by rebuilding the input layer without changing the structure of neural networks.