学习报告:一种基于视觉和听觉相结合的深度跨域情绪识别网络
本篇学习报告的内容为“一种基于视觉和听觉相结合的深度跨域情绪识别网络”,选自论文《Joint Deep Cross-Domain Transfer Learning for Emotion Recognition》。该论文提出了一种基于视觉和听觉相结合的深度跨域情绪识别网络,来解决因为情绪识别数据集匮乏而导致识别效果较差的问题。
研究背景
由于收集和准确地对情感数据打上标签并形成大规模对数据集不仅需要耗费大量的金钱和时间,还需要有对应专业知识的技术人员才能完成,导致现在研究者们普遍面临缺乏足够的带有标签的数据的情况,进而无法训练模型去进行准确的情绪分类。
为了解决上面的问题,研究者们开始广泛使用迁移学习这个方法,并且都在一定程度上取得了较好的效果。但是目前大部分情况都只适用于单一领域(比如视觉迁移到视觉)。Hu[1], Ji[2], Zhang[3]等人的研究表明,不同领域可以提供互补的信息以提升情绪识别模型的识别能力。因此如何科学利用跨域信息去进行跨域情绪识别,是当今一个有待解决的问题。
跟李沐学AI-动手学深度学习 PyTorch版-69 BERT预训练
跟李沐学AI-动手学深度学习 PyTorch版-68 Transformer
Android-LayoutInflater与inflate()
跟李沐学AI-动手学深度学习 PyTorch版-67 自注意力
跟李沐学AI-动手学深度学习 PyTorch版-66 使用注意力机制的seq2seq
学习报告:基于预测图像旋转的无监督表征学习
本篇学习报告选取的内容为《Unsupervised Representation Learning by Predicting Image Rotations》,出自2018年的International Conference on Learning Representations(ICLR)。该篇论文主要针对自监督任务问题提出了一种通过构造识别图片旋转情况(作为一种伪标签)的辅助任务来提高模型学习图片语义信息的能力,从而对预训练模型进行微调来应对图像分类等下游场景任务。