1 太秀了!DeepMind推出最强表示学习模型BigBiGAN-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

太秀了!DeepMind推出最强表示学习模型BigBiGAN

DPVg_AI_era 来源:lq 2019-07-13 08:01 次阅读

今天,DeepMind爆出一篇重磅论文,引发学术圈热烈反响:基于最强图像生成器BigGAN,打造了BigBiGAN,在无监督表示学习和图像生成方面均实现了最先进的性能!Ian Goodfellow也称赞“太酷了!”

GAN在图像合成方面一次次让人们惊叹不已!

例如,被称为史上最强图像生成器的BigGAN——许多人看到BigGAN生成的图像都要感叹“太逼真了!DeepMind太秀了吧!”

BigGAN生成的逼真图像

这不是最秀的。今天,DeepMind的一篇新论文再次引发学术圈热烈反响,论文题为《大规模对抗性表示学习》。

论文链接:

https://arxiv.org/pdf/1907.02544.pdf

在这篇论文中,DeepMind基于最先进的BigGAN模型构建了BigBiGAN模型,通过添加编码器和修改鉴别器将其扩展到表示学习。

BigBiGAN表明,“图像生成质量的进步转化为了表示学习性能的显著提高”。

研究人员广泛评估了BigBiGAN模型的表示学习和生成性能,证明这些基于生成的模型在ImageNet上的无监督表示学习和无条件图像生成方面都达到了state of the art的水平。

这篇论文在Twitter上引发很大反响。GAN发明人Ian Goodfellow说:“很有趣,又回到了表示学习。我读PhD期间,我和大多数合作者都对作为样本生成的副产品的表示学习很感兴趣,而不是样本生成本身。”

Goodfellow说:“当年我们在写最初的GAN论文时,我的合著者@dwf(David Warde-Farley)试图得到一些类似于BiGAN的东西,用于表示学习。5年后看到这一成果,我觉得太酷了。”

Andrej Karpathy也说:“无监督/自监督学习是一个非常丰富的领域,它将消除目前对大规模数据集的必要性.”

总结而言,这篇论文展示了GAN可以用于无监督表示学习,并在ImageNet上获得了最先进的结果。

下面是BigBiGAN生成的一些重建样本,可以看到,重建是倾向于强调高级语义,而不是像素级的细节。

下面,新智元带来对这篇论文的详细解读。

基于BigGAN打造BigBiGAN:学习高级语义,而非细节

近年来,我们已经看到视觉数据生成模型的快速发展。虽然这些模型以前局限于模式单一或少模式、结构简单、分辨率低的领域,但随着建模和硬件的进步,它们已经获得了令人信服地生成复杂、多模态、高分辨率图像分布的能力。

直观地说,在特定域中生成数据的能力需要高度理解所述域的语义。这一想法长期以来颇具吸引力,因为原始数据既便宜——可以从互联网等来源获得几乎无限的供应——又丰富,图像包含的信息远远超过典型的机器学习模型训练用来预测的类别标签

然而,尽管生成模型取得的进展不可否认,但仍然存在一些令人困扰的问题:这些模型学到了什么语义,以及如何利用它们进行表示学习?

仅凭原始数据就能真正理解生成这个梦想几乎不可能实现。相反,最成功的无监督学习方法利用了监督学习领域的技术,这是一种被称为自监督学习(self-supervised learnin)的方法。

这些方法通常涉及以某种方式更改或保留数据的某些方面,并训练模型来预测或生成缺失信息的某些方面。

例如,Richard Zhang等人的研究(CVPR 2016)提出了一种非监督学习的图像着色方法,在这种方法中,模型被给予输入图像中颜色通道的子集,并经过训练来预测缺失的通道。

作为无监督学习手段的生成模型为self-supervised的任务提供了一个很有吸引力的替代方案,因为它们经过训练,可以对整个数据分布建模,而不需要修改原始数据。

GAN是一类应用于表示学习的生成模型。GAN框架中的生成器是一个从随机采样的潜在变量(也称为“噪声”)到生成数据的前馈映射,其中学习信号由经过训练的鉴别器提供,用来区分真实数据和生成的数据样本,引导生成器的输出跟随数据分布。

作为GAN框架的扩展,Vincent Dumoulin等人(ICLR 2017)提出adversarially learned inference(ALI)[7],或Jeff Donahue等人(ICLR 2017)提出bidirectional GAN (BiGAN)[4]方法,这些方法通过编码器模块将实际数据映射到潜在数据(与生成器学习的映射相反)来增强标准GAN。

在最优判别器的极限下,[4]论文表明确定性BiGAN的行为类似于自编码器,最大限度地降低了重建成本l₀;然而,重建误差曲面的形状是由参数鉴别器决定的,而不是像误差l₂这样的简单像素级度量。

由于鉴别器通常是一个功能强大的神经网络,我们希望它能产生一个误差曲面,在重建时强调“语义”误差,而不是强调低层次的细节。

BigBiGAN重建的更多图像

论文证明了通过BiGAN或ALI框架学习的编码器是在ImageNet上学习下游任务的一种有效的视觉表示方法。然而,它使用了DCGAN风格的生成器,无法在这个数据集上生成高质量的图像,因此编码器能够建模的语义也相当有限。

在这项工作中,我们再次使用BigGAN作为生成器,这是一个能够捕获ImageNet图像中的许多模式和结构的先进模型。我们的贡献如下:

我们证明了BigBiGAN (BiGAN with BigGAN generator)与ImageNet上无监督表示学习的最先进技术相匹敌。

我们为BigBiGAN提出了一个更稳定的联合鉴别器。

我们对模型设计选择进行了全面的实证分析和消融研究。

我们证明,表示学习目标还有助于无条件生成图像,并展示了无条件生成ImageNet的最先进结果。

BigBiGAN框架的结构

BigBiGAN框架的结构

BigBiGAN框架的结构如上图所示。

联合判别器D用于计算损失l。其输入是data-latent pairs,可以是从数据分布和编码器输出采样的,或从生成器G输入和潜在分布采样的 。损失l包括一元数据项和一元潜在项,以及将数据和潜在分布联系起来的共同项。

评估和结果:表示学习、图像生成实现最优性能

表示学习

我们现在从上述简化学习结果中获取基于train-val分类精度的最优模型,在官方ImageNet验证集上得出结果,并与最近的无监督学习研究文献中的现有技术水平进行比较。

为了进行这些比较,我们还提供了基于规模较小的ResNet-50的最佳性能GAN变种的分类结果。详细比较结果在表2中给出。

与当前许多自监督学习方法相比,本文中采用的纯基于生成模型的BigBiGAN方法在表示学习方面表现良好,在最近的无监督学习任务上的表现达到了SOTA 水平,最近公布的结果显示,本文中的方法在使用表2的AvePool相同的表示学习架构和特征的旋转预测预训练任务中,将top-1精度由55.4%提高到60.8%。

表1:多个BigBiGAN变体的性能结果,在生成图像的初始分数(IS)和Fréchet初始距离(FID),监督式逻辑回归分类器ImageNet top-1精度百分比(Cls。)由编码器特征训练,并基于从训练集中随机抽样的10K图像进行分割计算,我们将其称为“train-val”分割。

表2:在官方ImageNet验证集上对BigBiGAN模型与最近的基于监督式逻辑回归分类器的其他方法的对比。

表3:我们的BigBiGAN与无监督(无条件)生成方法、以及之前报告的无监督BigGAN的性能结果对比。

无监督式图像生成

表3所示为BigBiGAN进行无监督生成的结果,与基于BigGAN的无监督生成结果做比较。请注意,这些结果与表1中的结果不同,因为使用的是数据增强方法(而非表1中的用于所有结果的ResNet样式预处理方法)。

这些结果表明,BigBiGAN显著提升了以IS和FID为量度的基线无条件BigGAN生成结果的性能。

图2:从无监督的BigBiGAN模型中选择的图像重建结果。上面一行的图像是真实图像(x~Px),下面一行图像是由G(E(x))计算出的这些图像的重建结果。与大多数显式重建成本(例如像素数量)不同,由(Big)BiGAN 实现隐式最小化的重建成本更多倾向于强调图像的语义及其他更高级的细节。

图像重建:更偏重高级语义,而非像素细节

图2中所示的图像重建在像素上远达不到完美,可能部分原因是目标没有明确强制执行重建成本,在训练时甚至对重建模型进行计算。然而,它们可以为编码器ε学习建模的特征提供一些帮助。

比如,当输入图像中包含狗、人或食物时,重建结果通常是姿势、位置和纹理等相同特征“类别”的不同实例。例如,脸朝同一方向的另一只类似的狗。重建结果倾向于保留输入的高级语义,而不是低级细节,这表明BigBiGAN的训练在鼓励编码器对前者进行建模,而不是后者。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编码器
    +关注

    关注

    45

    文章

    3638

    浏览量

    134423
  • 图像
    +关注

    关注

    2

    文章

    1083

    浏览量

    40449
  • DeepMind
    +关注

    关注

    0

    文章

    130

    浏览量

    10845

原文标题:DeepMind爆出无监督表示学习模型BigBiGAN,GAN之父点赞!

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    大语言模型:原理与工程时间+小白初识大语言模型

    解锁 我理解的是基于深度学习,需要训练各种数据知识最后生成自己的的语言理解和能力的交互模型。 对于常说的RNN是处理短序列的数据时表现出色,耳真正厉害的是Transformer,此框架被推出后直接
    发表于 05-12 23:57

    未来的AI 深挖谷歌 DeepMind 和它背后的技术

    学习从非结构化数据中学习来编写分析报告或执行无人监督的任务。所有这些发展都为不同的公司发挥作用并证明他们的价值奠定基础。因此,很多像DeepMind这样的公司成立了,来继续发展这一领
    发表于 08-26 12:04

    机器学习如何赋能风力发电?DeepMind 做了以下尝试 精选资料推荐

    谷歌 DeepMind 博客昨日更新一篇关于机器学习如何赋能风力发电的文章,详细介绍谷歌全球可再生能源项目中针对风电场的机器学习实验结果,雷锋网(公众号:雷锋网) AI 科技评论将之
    发表于 07-12 07:41

    !小学生都开始学习华为鸿蒙

    活到老学到老,学习是人的一生之题。鸿蒙从诞生发展至今,也有不少开发者或小白接触鸿蒙,开始不断探索这个新世界。但我万万没想到,现在连小学生都开始加入鸿蒙的世界!在华为开发者大会上,一群小学生在“智慧
    发表于 10-29 14:41

    基于边采样的网络表示学习模型

    近年来,以微博、微信、Facebook为代表的社交网络不断发展,网络表示学习引起了学术界和工业界的广泛关注.传统的网络表示学习模型利用图矩阵
    发表于 12-18 10:17 0次下载
    基于边采样的网络<b class='flag-5'>表示</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>

    DeepMind携手Unity,加速机器学习和人工智能研究

    2014年被谷歌收购的英国人工智能公司DeepMind部门与Unity合作,加速机器学习和人工智能(AI)研究。该合作将重点关注DeepMind和其他人可用于测试和可视化实验算法的“虚拟环境”。
    发表于 09-28 10:43 1347次阅读

    谷歌、DeepMind重磅推出PlaNet 强化学习新突破

    Google AI 与 DeepMind 合作推出深度规划网络 (PlaNet),这是一个纯粹基于模型的智能体,能从图像输入中学习世界模型
    的头像 发表于 02-17 09:30 3331次阅读
    谷歌、<b class='flag-5'>DeepMind</b>重磅<b class='flag-5'>推出</b>PlaNet 强化<b class='flag-5'>学习</b>新突破

    BigBiGAN问世,“GAN父”都说酷的无监督表示学习模型有多优秀?

    BigBiGAN是一种纯粹基于生成模型的无监督学习方法,它在ImageNet上实现图像表示学习
    的头像 发表于 07-11 15:48 2778次阅读

    谷歌和DeepMind研究人员合作提出新的强化学习方法Dreamer 可利用世界模型实现高效的行为学习

    近年来随着强化学习的发展,使得智能体选择恰当行为以实现目标的能力得到迅速地提升。目前研究领域主要使用两种方法:一种是无模型(model-free)的强化学习方法,通过试错的方式来学习
    发表于 03-26 11:41 1968次阅读

    基于LSTM的表示学习-文本分类模型

    分类的关键。为了获得妤的文本表示,提高文本分类性能,构建了基于LSTM的表示学习-文本分类模型,其中表示
    发表于 06-15 16:17 18次下载

    语言模型做先验,统一强化学习智能体,DeepMind选择走这条通用AI之路

    在智能体的开发中,强化学习与大语言模型、视觉语言模型等基础模型的进一步融合究竟能擦出怎样的火花?谷歌 DeepMind 给了我们新的答案。
    的头像 发表于 07-24 16:55 527次阅读
    语言<b class='flag-5'>模型</b>做先验,统一强化<b class='flag-5'>学习</b>智能体,<b class='flag-5'>DeepMind</b>选择走这条通用AI之路

    谷歌DeepMind发布机器人大模型RT-2,提高泛化与涌现能力

    7月28日,谷歌DeepMind推出了一款新的机器人模型Robotics Transformer 2(RT-2)。
    发表于 08-02 14:22 446次阅读
    谷歌<b class='flag-5'>DeepMind</b>发布机器人大<b class='flag-5'>模型</b>RT-2,提高泛化与涌现能力

    再登Nature!DeepMind模型突破60年数学难题,解法超出人类已有认知

    用大模型解决困扰数学家60多年的问题,谷歌DeepMind最新成果再登 Nature。 作者之一、谷歌DeepMind研究副总裁Pushmeet Kohli表示: 训练数据中不会有这个
    的头像 发表于 12-24 21:40 531次阅读
    再登Nature!<b class='flag-5'>DeepMind</b>大<b class='flag-5'>模型</b>突破60年数学难题,解法超出人类已有认知

    谷歌DeepMind推新AI模型Genie,能生成2D游戏平台

    据报道,谷歌公司的DeepMind团队近期发布AI模型Genie,此模型拥有多达110亿个参数,能够依据用户提供的图片及提示词创建出相当完整的2D游戏场景。
    的头像 发表于 02-27 14:53 773次阅读

    谷歌DeepMind推出新一代药物研发AI模型AlphaFold 3

    谷歌DeepMind公司近日重磅推出了一款名为AlphaFold 3的全新药物研发AI模型,这一创新技术将为科学家们提供前所未有的帮助,使他们能更精确地理解疾病机制,进而开发出更高效的治疗药物。
    的头像 发表于 05-10 09:35 389次阅读