[2] ZHANG Z Y, HAN X, LIU Z Y, et al. ERNIE: enhanced language representation with informative entities[C]// Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg:Association for Computational Linguis-tics, 2019: 1141-1151.
[3] 张正航,钱育蓉,行艳妮,等.基于TransE的表示学习方法研究综述[J].计算机应用研究,2021,38(3):656-663.
[4] WANG X Z, GAO T Y, ZHU Z C, et al. KEPLER: a unified model for knowledge embedding and pre-trained language representation[J]. Transactions of the Association for Computational Linguistics, 2021, 9:176-194.
[5] 段丹丹,唐加山,温勇,等.基于BERT模型的中文短文本分类算法[J].计算机工程,2021,47(1):79-86.
[6] 王珊珊,高新勤,张辉,等.云制造资源文本信息的特征提取与关联分析方法[J].制造业自动化,2020,42(9):9-13,134.
[7] 叶水欢,葛寅辉,陈波,等.基于ELMo-TextCNN的网络欺凌检测模型[J].信息安全研究,2023,9(9):868-876.
[8] 张民,李俊涛.生成式预训练模型[J].中国科学基金,2021,35(3):403-406.
[9] 杨兴锐,赵寿为,张如学,等.改进BERT词向量的BiLSTM-Attention文本分类模型[J].传感器与微系统,2023,42(10):160-164.
[10] 方晓东,刘昌辉,王丽亚,等.基于BERT的复合网络模型的中文文本分类[J].武汉工程大学学报,2020,42(6):688-692.
[11] 黄鹂.基于深度神经网络的文本生成技术研究[D].成都:电子科技大学,2021.
[12] 范文韬.面向知识图谱嵌入的负采样方法研究[D].北京:北京交通大学,2022.
[13] 熊漩,严佩敏.融合多头自注意力机制的中文分类方法[J].电子测量技术,2020,43(10):125-130.
[14] 王双印,滕国文.卷积神经网络中ReLU激活函数优化设计[J].信息通信,2018(1):42-43.
[15] 亢文倩.融合标签语义特征的BERT微调问句分类方法[J]. 电视技术,2022,46(5):46-49,53.