aoi学院

Aisaka's Blog, School of Aoi, Aisaka University

本篇学习报告的内容为“一种基于视觉和听觉相结合的深度跨域情绪识别网络”,选自论文《Joint Deep Cross-Domain Transfer Learning for Emotion Recognition》。该论文提出了一种基于视觉和听觉相结合的深度跨域情绪识别网络,来解决因为情绪识别数据集匮乏而导致识别效果较差的问题。


研究背景

由于收集和准确地对情感数据打上标签并形成大规模对数据集不仅需要耗费大量的金钱和时间,还需要有对应专业知识的技术人员才能完成,导致现在研究者们普遍面临缺乏足够的带有标签的数据的情况,进而无法训练模型去进行准确的情绪分类。

为了解决上面的问题,研究者们开始广泛使用迁移学习这个方法,并且都在一定程度上取得了较好的效果。但是目前大部分情况都只适用于单一领域(比如视觉迁移到视觉)。Hu[1], Ji[2], Zhang[3]等人的研究表明,不同领域可以提供互补的信息以提升情绪识别模型的识别能力。因此如何科学利用跨域信息去进行跨域情绪识别,是当今一个有待解决的问题。

阅读全文 »

在开发中,我们经常需要使用到LayoutInflater,通过该对象的inflate()方法,将一个layout布局文件实例化为View对象。

LayoutInflater

对于LayoutInflater的定义,我们来看一下官方文档:

Instantiates a layout XML file into its corresponding android.view.View objects.

意思是,将一个XML文件实例化为对应的View对象。

阅读全文 »

本篇学习报告选取的内容为《Unsupervised Representation Learning by Predicting Image Rotations》,出自2018年的International Conference on Learning Representations(ICLR)。该篇论文主要针对自监督任务问题提出了一种通过构造识别图片旋转情况(作为一种伪标签)的辅助任务来提高模型学习图片语义信息的能力,从而对预训练模型进行微调来应对图像分类等下游场景任务。

阅读全文 »