为解决BERT(bidirectional encoder representations from transformers)编码器在掩码过程中人为引入噪音、掩码比例过小难以掩盖短交互序列中的项目以及掩码比例过大导致模型难以训练3个问题,提出一种更改BERT编码器掩码方式的对比学习方法,为模型提供3类学习样本,使模型在训练过程中模仿人类学习进程,从而取得较好的结果。提出的算法在3个公开数据集上进行对比试验,性能基本优于基线模型,其中,在MovieLens-1M数据集上HR@5和NDCG@5指标分别提高9.68%和10.55%。由此可见,更改BERT编码器的掩码方式以及新的对比学习方法能够有效提高BERT编码器的编码准确性,从而提高推荐的正确率。
现有的侧信息集成序列推荐模型中存在对用户表示学习及优化不足的问题,针对此问题提出基于多序列交互与对比学习的侧信息集成序列推荐模型(side-information integrated sequential recommendation model based on multi-sequence interaction and contrastive learning,MICL)。首先,引入多序列交互注意力机制,对项目序列和侧信息序列构建序列内和序列间的深度关联,从项目和侧信息两个角度捕获用户偏好,生成两个视角的用户表示。其次,采用用户表示优化模块,结合动态难负样本采样策略构建正负样本对,利用自监督信号优化用户表示。最后,通过多任务动态权重调整策略在推荐任务与属性预测任务之间实现动态平衡优化目标,提升模型的鲁棒性和泛化能力。在Beauty、Sports、Toys和Yelp四个公共数据集上进行实验,与效果较好的基线模型相比,MICL的召回率(recall)和归一化折损率(NDCG)平均提升了1.63%和2.35%,验证了MICL对学习和优化用户表示方面的有效性。