为了从大量无标注数据中挖掘有用信息,无监督学习被提出,近两年受到学术界广泛关注。多视角聚类是当前流行的一类无监督学习方法,可以从多个角度挖掘无标注数据的有用信息。已有多视角方法一般只关注“提上限”,即试图挖掘不同视图的互补语义信息,提升模型准确率。然而现实中,各视图可能存在缺失、噪声等,各视图可能存在大量语义不一致性,导致多视角模型性能甚至还不如单视角,这在现实应用场景中是不可接受的。本次报告从"保底线"角度探究多视角学习,提出一类全新的“安全”多视角学习算法,可保证所提多视角模型至少不比单视角差、基于填充的缺失多视角模型至少不比只在全数据下的多视角模型差。