1 2018年深度学习预测的回顾,目的是量化深度学习的快速发展-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

2018年深度学习预测的回顾,目的是量化深度学习的快速发展

DPVg_AI_era 来源:lq 2018-12-10 09:31 次阅读

离 2019 年还剩不到 1 个月的时间了。这几年来,每个年初本文作者 Carlos E. Perez 都对预测当年深度学习的趋势做预测,到年底再对预测进行回顾,今年亦不例外。本文是他对 2018 年深度学习预测的回顾,目的是量化深度学习的快速发展。通过回顾预测,对比新的一年的进展,我们可以了解这个领域发展到底有多快。

本文将回顾我对 2018 年深度学习的预测,并对这一年的进展进行评论:

注:

作者对 2018 年深度学习的预测见:【2018深度学习10大警示】多数芯片公司将破产;自我对弈可自动创造知识

1.多数深度学习硬件初创公司都将失败

2018 年,深度学习硬件公司中,公开承认失败的公司没几家(有一家公司已宣称失败:KnuEdge),但是它们都还没有交付产品。有意思的是,尽管这些初创公司未能交付产品,却仍然能够筹集到更多的资金!

注:

这里有一份人工智能硬件初创公司列表:

https://github.com/basicmi/AI-Chip-List

去年我的观点是,深度学习初创公司将无法正确地估计自己可以为自己的潜在的客户群提供多少可用软件的成本。随着深度学习堆栈变得越来越丰富、越来越复杂,初创公司还能迎头赶上吗?这是个疑问。

最大的失败来自 Intel。在 NIPS 2017 大会上,它们不是大张旗鼓地宣扬最终将提供硅片吗?今年,它们的 Nervana 衍生产品是 MIA。它们是否能够在明年春天之前推出 “Spring Crest”?让我们拭目以待。

有多家初创公司都号称自己有可用的硅片。深度学习人工智能如此热门,每个人都想 “发明” 自己的芯片。简单列举一下,这些初创公司包括:GraphCore、Wave Computing、Groq、 Habana、Bitmain、Cabricon、Esperanto、Novumind、Gryfalcon、Hailo 和 Horizon。这还没算上三星、ARM、Xilinx、高通和华为等传统半导体制造商。另外有一个新情况是,现在传统的云服务供应商并不是购买 AI 芯片,而是研发自己的 AI 芯片:比如 Amazon 的 Inferentia、Microsoft 的 Brainwave、Facebook、阿里巴巴的 AliNPU 和百度的昆仑。芯片领域将很快就会变得拥挤起来!

现在的情况是,深度学习硬件由极其庞大且有能力的公司来主导:Nvidia 和 Google。虽然你无法得到 Google TPU2 的物理硬件,但你可以通过云服务对 Google TPU2 进行虚拟访问。相比之下,Nivida 提供了云计算(通过第三方云服务供应商)和硬件的两种可用选项。

能够与这两大巨头进行竞争的供应商是 AMD。AMD 支持最新版本的 TensorFlow,并且拥有逐渐成熟的深度学习堆栈。与 Nvidia 和 Google 不同,它们缺少 Tensor 核心组件(即 Systolic Array(脉动阵列))。但对更为传统的训练和推理工作来说,AMD 的硬件性能可与 Nvidia 媲美。这听上去可能会觉得没什么大不了的,但是你要知道,AMD 已经遥遥领先于任何其他初创公司的竞争对手。AMD 和 Nvidia 有着相似的规模经济,因为它们的大部分硅片都是用于日常性用途(即游戏、渲染、高性能计算等)。

老实说,这个领域有太多的追随者。成熟的深度学习市场可能只支持不超过 3 个竞争对手。Nvidia 和 Google 早已巩固它们在市场的地位,如此一来,就只剩下一个空位了!为了生存下去,公司必须使解决方案的部署尽可能简单容易、畅行无阻。此外,每家公司必须让自己的产品具有自己的特色——不要每家公司都去做图像处理!为了能够有效地提供无缝体验、同时建立起自己的市场定位,这些公司必须在软件方面进行投资(顺便说一句,我也正寻找硬件公司里的相关职位)。

2. 元学习将成为新的 SGD

元学习(Meta-learning)还没有取代 SGD(Stochastic Gradient Descent,随机梯度下降),但以神经架构搜索形式的元学习在这一领域中已经取得巨大的进步。本年的一个关键的进展与超网络(Hypernetwork)搜索有关。请参阅 Medium 上的博文:

《Deep Learning Architecture Search and the Adjacent Possible》(《深度学习架构搜索及相邻可能》)

https://medium.com/intuitionmachine/deep-learning-to-forget-or-not-forget-c8b7843479dd

我们在元学习中取得的另一个进步是在算法方面,它的灵感来自于少量学习(few-shot learning)MAML。这催生了各种算法:Reptile、PROMP 和 CAML。元学习方法需要大量的训练数据,这是因为它是在各种各样的任务中学习,而不仅仅是在不同的样本中学习。它有两个用于学习的迭代循环,一个是迭代任务的外部学习循环,一个是迭代训练数据的内部循环。基于 MAML 的方法只考虑任务的初始化,因此不需要可比较相同类型的数据。

Reptile:https://blog.openai.com/reptile/

PROMP:https://arxiv.org/pdf/1810.06784.pdf

CAML:https://arxiv.org/pdf/1810.03642.pdf

我现在开始认为,无监督学习和元学习实际上是同一个问题。进化解决这个问题的方法是通过踏脚石(stepping stone )技能的发展。这意味着它完全取决于正在解决的问题的类型:是用于预测,自助控制,还是生成设计的无监督学习或元学习任务?每一种问题都需要不同的基本技能,因此可以训练一个聚合的基本模型,而不是每一个任务都从头训练。引导是一种虚构的方法,它吸引了那些相信可以通过数学来拯救世界的研究人员。

注:

关于作者提及的无监督学习和元学习实际是同一个问题,可参阅论文《Unsupervised Learning via Meta-learning》(《通过元学习进行无监督学习》)

https://arxiv.org/pdf/1810.02334.pdf

总而言之,在 2018 年看来最有前途的两种元学习方法是进化启发的架构搜索和少量学习 MAML 方法。

3. 生成模型驱动一种新的建模方式

目前,生成模型仍然主要局限于娱乐应用。当然,BigGAN 搜索创建了很多噩梦般的图像,但不幸的是,使用高保真生成模型来取代标准计算方法的研究仍然在进行。

BigGAN 创建的图像可见:https://www.fastcompany.com/90244767/see-the-shockingly-realistic-images-made-by-googles-new-ai

DeepMind 研究蛋白质折叠已有两年,他们刚刚在 12 月份公布了研究成果:

《AlphaFold: Using AI for scientific discovery》(《AlphaFold:使用人工智能进行科学发现》)

https://deepmind.com/blog/alphafold/

DeepMind 训练了一个生成神经网络来编造新的蛋白质片段,这些蛋白质片段随后被用来不断提高所提议的蛋白质结构的得分。这是生成网络最令人印象深刻的用途之一,超越了图像、3D 结构或声音的美学生成。

关于该领域的详细信息,请参阅 Medium 上的博文:

《The Delusion of Infinite Precision Numbers》(《无穷精度数的迷惑》)

https://medium.com/intuitionmachine/the-delusion-of-infinite-precision-numbers-add501a1518d

4. 自我对决是一种自动化的知识创造

AlphaGo 引入的自我对决(Self-play)方法在应用程序使用方面上,并没有深入人心。然而在研究中,OpenAI 的 Dota Five 已经证明,自我对决可以解决一个非常困难的 AI 问题(即,即时战略游戏)。阻止这种使用的主要障碍似乎是在这种场景中框架问题的困难,以及现实问题中存在的多种不确定性。

深度强化学习(Deep Reinforcement Learning)在 2018 年遭到了很多严厉的批评,但是 OpenAI 的 Ilya Stuskever 却对 Dota Five 看似无限的深度强化学习可扩展性非常着迷,他比大多数人更早如此预测通用人工智能,见 Medium 这篇博文:

《Why AGI is Achievable in Five Years》(《为什么通用人工智能在五年内能够实现》)

https://medium.com/intuitionmachine/near-term-agi-should-be-considered-as-a-possibility-9bcf276f9b16

尽管强化学习可扩展性得到了明显的验证,仍然有一些新论文对深度强化学习的稳健性提出了质疑,如论文《Are Deep Policy Gradient Algorithms Truly Policy Gradient Algorithms?》(《深度策略梯度算法是否真的是策略梯度算法?》https://arxiv.org/abs/1811.02553v2)

我个人倾向于支持内在激励方法而不是深度强化学习方法。原因在于,大多数难题的回报函数(reward)都是稀疏的,有些还具有欺骗性。

5. 直觉机器将缩小语义鸿沟

当 Yoshua Bengio 开始使用双重过程理论(Dual Process theory)来解释深度学习的局限性时,你就知道他在正确的轨道上。

因此,深度学习机器就是人工直觉(Artificial intuition)的想法,在 2018 年已经成为主流。虽然,双重过程理论是人类思维的一个很好的模型,但我们需要更充分地理解直觉思维的丰富性(System 1),直觉思维不仅仅是快速思考,也不仅仅是摊销推理(Amortized inference)。人类大脑中有很多东西我们还没有在深度学习中复制出来,请参阅 Medium 上的这篇博文:

《Where is the Artificial Ingenuity in Deep Learning?》(《深度学习里的人工智能在何处?》)

https://medium.com/intuitionmachine/the-key-to-general-intelligence-is-the-mechanism-of-artificial-ingenuity-dad26bc99043

6. 可解释性是无法实现的

现在的问题是,总体来说,我们在理解深度学习网络的本质方面并没有取得任何进展。越来越多的和我们认知相悖的研究被发布出来,打破了我们关于深度学习网络应该如何工作的理论。DeepMind 就抛出了一个打破认知的 “破坏性” 研究成果:

《Deep Learning’s Uncertainty Principle》(《深度学习的不确定性原理》)

https://medium.com/intuitionmachine/deep-learnings-uncertainty-principle-13f3ffdd15ce

接着就是神经网络的对抗性重编程(Adversarial Reprogramming),论文《Adversarial Reprogramming of Neural Networks》(《神经网络的对抗性重编程》https://arxiv.org/abs/1806.11146)证明了可以使用对抗特征来对神经网络进行重编程。在论文中他们演示了如何破坏在 Imagenet 中训练的 MNIST 分类网络:

神经网络内部发生了什么,我们对其的理解仍然是远远不够的。

至于如何做出直观的解释,我认为这仍然是一个 “富饶” 的领域,还需要进行更多的研究。2018 年是暴露出许多深度学习局限性的一年,在这一年里,我们在开发更好的人机界面方面的进展并不大。请参阅 Medium 的这篇博文:

《Fake Intuitive Explanations in AI》(《人工智能中虚假直觉的解释》)

https://medium.com/intuitionmachine/achieving-fake-explanations-in-ai-5e63b289a3ef

7. 深度学习研究信息泛滥成灾

今年,关于深度学习的论文数量翻了一番。更槽糕的是,审稿人的素质却在急剧下降。因此,杂讯比已跌至谷底。现在,每个人都需要在堆积如山的新研究论文中为自己筛选出真正有价值的研究。有些工具,如 SemanticScholar、Arxiv Sanity 和 Brundage Bot 等论文网站都可以用来帮助你了解其中的大量信息。只是那些真正新颖的发现,却太容易成为 “漏网之鱼”,让人错过。

8. 通过教学环境实现工业

深度学习在工业化方面,并没有进展。

2018 年是人工智能结盟问题变得更加清晰的一年。

人工智能结盟对人工智能教学环境至关重要。目前有几个团队已经发布了他们的框架,这些框架可以在强化学习实验中提供更好的再现性(参见:Facebook Horizon、OpenAI Baselines、DeepMind TRFL)。

Facebook Horizon:https://code.fb.com/ml-applications/horizon/

OpenAI Baselines:https://github.com/openai/baselines

DeepMind TRFL:https://deepmind.com/blog/trfl/

我们已经目睹了迁移学习从虚拟环境到真实环境的进展(参见:OpenAI Learning Dexterity,(https://blog.openai.com/learning-dexterity/))。我们还见证了通过稀疏回报来教授复杂技能的进展,请参阅 Medium 上的这篇博文:

《How to Bootstrap Complex Skills with Unknown Rewards》(《如何使用未知回报引导复杂技能》)

https://medium.com/intuitionmachine/how-to-learn-complex-skills-with-unknown-rewards-27a105429e6b

9. 会话认知

我最终描绘了一幅如何获得会话认知更为清晰的路线图。不幸的是,表中提到的 “达到第三阶段” 意味着必须完成这份列表中的第 5 项,而这在未来几年内不太可能发生。因此,在未来几年内人们不大可能会获得会话认知。唯一的好处就是,这种认知概念已经被认可。也就是说,它已成为一个已知的未知。

作者提到的路线图,参阅:https://medium.com/intuitionmachine/conversational-cognition-a-new-approach-to-agi-95486ffe581f

要了解其中的重要发展节点,参阅:

《A New Capability Maturity Model for Deep Learning》(《一种新的深度学习能力成熟度模型》)

https://medium.com/intuitionmachine/an-advanced-capability-maturity-level-for-artificial-general-intelligence-b300dafaca3f

10. 人工智能的道德应用

人们终于意识到这个问题了!最值得注意的是,美国加利福尼亚州议会要求,聊天机器人必须主动声明它们不是人类。

法国人感到惊慌失措,于是制定了 “人类的人工智能”(AI for Humanity)计划,有关详情,请参见 Medium 这篇博文:

《Six Months Later, France has Formulated their Deep Learning Strategy》(《六个月后,法国制定了深度学习战略》)

https://medium.com/intuitionmachine/six-months-later-france-has-released-their-deep-learning-strategy-d2cbf18927d

在人工智能武器化方面上,许多公司也已经划清了界限:

《Drawing the Ethical Line on Weaponized Deep Learning Research》(《为深度学习研究武器化划定道德底线》)

https://medium.com/intuitionmachine/drawing-the-ethical-line-on-weaponized-a-i-research-316e865e9d18

当然,问题在于,我们的经济体系更倾向于给人工智能赋予 “人格”,而不是“制造” 真正的人类。详情请参阅 Medium 这篇博文:

《Artificial Personhood is the Root Cause Why A.I. is Dangerous to Society》(《人工人格是人工智能危害社会的根本原因》)

最终,对于人工智能研究人员来说,他们必须决定自己是想一辈子向孩子们出售糖水呢,还是做一些真正有意义的事情,请参阅 Medium 上的这篇博文:

《Is the Purpose of Artificial Intelligence to Sell Sugar Water?》(《人工智能的目的是出售糖水么?》)

https://medium.com/intuitionmachine/is-the-purpose-of-ai-to-sell-sugar-water-e6466d574ec0

结语

总之,回顾 2018 年,对于我年初做出的预测,现在看来,很多都做过了头。

鉴于此,我必须降低对 2019 年的期望。

我们开始意识到,在指定回报函数并基于这些回报进行优化的整个机器学习范式中,存在着重大的复杂性问题。这种学习范式只会让你的系统学会利用回报函数。很多时候,尽管看似取得了明显的进展,但底层系统学会的往往只是在测试中作弊。这是一个元级别的问题,不可能一蹴而就。在提高课程学习质量方面,我们充其量只能取得渐进式的进步。

《Fooled by the Ungameable Objective》(《不可玩目标的愚弄》)

https://medium.com/intuitionmachine/the-illusion-of-the-ungameable-objective-538a96a53efe

注:其中 “Ungameable” 是作者生造的词,用来形容一套没有任何漏洞的规则。译者进行了意译。

请继续关注我对 2019 年的深度学习预测。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 深度学习
    +关注

    关注

    73

    文章

    5500

    浏览量

    121111
  • AI芯片
    +关注

    关注

    17

    文章

    1879

    浏览量

    34990

原文标题:年度打脸!2018 年深度学习发展速度被严重高估

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NPU在深度学习中的应用

    随着人工智能技术的飞速发展深度学习作为其核心驱动力之一,已经在众多领域展现出了巨大的潜力和价值。NPU(Neural Processing Unit,神经网络处理单元)是专门为深度
    的头像 发表于 11-14 15:17 503次阅读

    GPU深度学习应用案例

    GPU在深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是深度学习
    的头像 发表于 10-27 11:13 381次阅读

    AI大模型与深度学习的关系

    AI大模型与深度学习之间存在着密不可分的关系,它们互为促进,相辅相成。以下是对两者关系的介绍: 一、深度学习是AI大模型的基础 技术支撑 :深度
    的头像 发表于 10-23 15:25 647次阅读

    FPGA做深度学习能走多远?

    。FPGA的优势就是可编程可配置,逻辑资源多,功耗低,而且赛灵思等都在极力推广。不知道用FPGA做深度学习未来会怎样发展,能走多远,你怎么看。 A:FPGA 在深度
    发表于 09-27 20:53

    深度学习模型量化方法

    深度学习模型量化是一种重要的模型轻量化技术,旨在通过减少网络参数的比特宽度来减小模型大小和加速推理过程,同时尽量保持模型性能。从而达到把模型部署到边缘或者低算力设备上,实现降本增效的目
    的头像 发表于 07-15 11:01 488次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>模型<b class='flag-5'>量化</b>方法

    利用Matlab函数实现深度学习算法

    在Matlab中实现深度学习算法是一个复杂但强大的过程,可以应用于各种领域,如图像识别、自然语言处理、时间序列预测等。这里,我将概述一个基本的流程,包括环境设置、数据准备、模型设计、训练过程、以及测试和评估,并提供一个基于Mat
    的头像 发表于 07-14 14:21 2163次阅读

    深度学习中的时间序列分类方法

    时间序列分类(Time Series Classification, TSC)是机器学习深度学习领域的重要任务之一,广泛应用于人体活动识别、系统监测、金融预测、医疗诊断等多个领域。随
    的头像 发表于 07-09 15:54 875次阅读

    深度学习与nlp的区别在哪

    深度学习和自然语言处理(NLP)是计算机科学领域中两个非常重要的研究方向。它们之间既有联系,也有区别。本文将介绍深度学习与NLP的区别。 深度
    的头像 发表于 07-05 09:47 907次阅读

    基于深度学习的小目标检测

    在计算机视觉领域,目标检测一直是研究的热点和难点之一。特别是在小目标检测方面,由于小目标在图像中所占比例小、特征不明显,使得检测难度显著增加。随着深度学习技术的快速发展,尤其是卷积神经
    的头像 发表于 07-04 17:25 856次阅读

    深度学习与卷积神经网络的应用

    随着人工智能技术的飞速发展深度学习和卷积神经网络(Convolutional Neural Network, CNN)作为其中的重要分支,已经在多个领域取得了显著的应用成果。从图像识别、语音识别
    的头像 发表于 07-02 18:19 885次阅读

    深度学习模型训练过程详解

    深度学习模型训练是一个复杂且关键的过程,它涉及大量的数据、计算资源和精心设计的算法。训练一个深度学习模型,本质上是通过优化算法调整模型参数,使模型能够更好地拟合数据,提高
    的头像 发表于 07-01 16:13 1223次阅读

    深度学习与传统机器学习的对比

    在人工智能的浪潮中,机器学习深度学习无疑是两大核心驱动力。它们各自以其独特的方式推动着技术的进步,为众多领域带来了革命性的变化。然而,尽管它们都属于机器学习的范畴,但
    的头像 发表于 07-01 11:40 1324次阅读

    深度解析深度学习下的语义SLAM

    随着深度学习技术的兴起,计算机视觉的许多传统领域都取得了突破性进展,例如目标的检测、识别和分类等领域。近年来,研究人员开始在视觉SLAM算法中引入深度学习技术,使得
    发表于 04-23 17:18 1284次阅读
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>学习</b>下的语义SLAM

    为什么深度学习的效果更好?

    导读深度学习是机器学习的一个子集,已成为人工智能领域的一项变革性技术,在从计算机视觉、自然语言处理到自动驾驶汽车等广泛的应用中取得了显著的成功。深度
    的头像 发表于 03-09 08:26 618次阅读
    为什么<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的效果更好?

    什么是深度学习?机器学习深度学习的主要差异

    2016AlphaGo 击败韩国围棋冠军李世石,在媒体报道中,曾多次提及“深度学习”这个概念。
    的头像 发表于 01-15 10:31 1068次阅读
    什么是<b class='flag-5'>深度</b><b class='flag-5'>学习</b>?机器<b class='flag-5'>学习</b>和<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的主要差异