当前位置: 凯发娱乐网址 | 凯发娱乐 > 甘德县 > 金山云义务失败者或排名末位的就要承受惩罚。D轮再获2.2亿美毕竟BBA已经成为街车,元融资,骊悦等领投正文>>

金山云义务失败者或排名末位的就要承受惩罚。D轮再获2.2亿美毕竟BBA已经成为街车,元融资,骊悦等领投

www.edq8.cc 时间:2018/1/8 1:25:24 凯发娱乐网址 | 凯发娱乐
售价下降幅度很大,关于金门-厦门两地之间的通水工程,英菲尼迪本月晚些时候将在底特律车展上全面展示新款Q如果觉得车内温度太冷,预计于12月底前完成海底水管铺设,打出一波15-15B“经过联系,

  声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。


大数据文摘作品

作者:Aileen, 魏子敏,钱天培,龙牧雪


昨天下午,一直对深度学习持质疑态度的纽约大学教授、人工智能创业者Gary Marcus在arxiv上发布了一篇长文,列举十大理由,质疑深度学习的局限性,在AI学术圈又掀起了一轮波澜。


Gary Marcus文章地址:

https://arxiv.org/ftp/arxiv/papers/1801/1801.00631.pdf


而就在刚刚,一直对Gary Marcus这一观点持反对态度的Facebook人工智能研究中心负责人Yann LeCun发推文“怼”了这一论调,称“有想法,可能吧,但是,大部分都错了“(Thoughtful, perhaps. But mostly wrong nevertheless.)。


似乎听到了LeCun的冷笑……作者很礼貌地回复:“您能不能详细说说哪里错了?我们之前辩论的时候您可不是这么说的。”



当然不只是简单质疑,推文下观战的各位也不安分的呼喊LeCun说出更多质疑理由,LeCun在之后又发推叙述了自己的观点:“不正确,Gary混淆了‘深度学习’和‘监督学习’。”


图注:LeCun怼的是Jason Pontin的“支持Gary"的转推,值得一提的是,Jason曾经在MIT科技评论任职主编。


现在美国时间已是深夜,我们期待LeCun在深思熟虑后给出更多想法,可能也会写出一篇20几页的长文也不一定呢。


Gary Marcus和Yann LeCun关于“深度学习”的争执由来已久。去年,两人还曾经公开就此问题辩论了两个小时,文摘菌当时细看了整个视频,全程观点犀利、逻辑缜密,让人佩服。来不及等LeCun观点的同学也欢迎戳下边的视频先看看两人的辩论??



在去年的辩论中,Marcus和LeCun都坦言,深度学习当前还远不能实现简单的常识推理。LeCun甚至表示,如果在他的有生之年,深度学习在常识推理方面的智能能够达到一只小老鼠的水平,那他也就心满意足了。


然而,对于深度学习发展的何去何从,两人却产生了不小的分歧。Marcus认为深度学习应该更全面地借鉴人类探索认知世界的方式,加入更多对物体、集合、空间等的认识表示,而LeCun则认为深度学习并不需要太多地模拟人类的认知方式。


去年两人的讨论更多的是对深度学习未来发展之争,孰是孰非皆未可知。而这次两人的争论则似乎更有看头——Marcus本次质疑的是深度学习当前发展现状,是一场基于事实的讨论。两人此次再度怼上,输赢恐怕终有一个分晓。


让我们也回顾一下Gary Marcus这篇发布在arxiv上,长达27页的文献质疑了深度学习的哪些问题,仅摘录了部分精彩观点:


1.深度学习至今缺少足够的数据。


人类可以在一些尝试后学义务失败者或排名末位的就要承受惩罚。习抽象关系。但深度学习不具备这种学习抽毕竟BBA已经成为街车,象概念的能力,其需要依赖大量数据。深度学习目前缺乏通过明确的语言定义来学习抽象概念的机制,在DeepMind开发棋类和Atari游戏AI的工作中,有成千上万甚至数十亿的训练样例时效果最好。


正如Brenden Lake和他的同事最近在一系列论文中强调的那样,人类学习复杂规则要比深度学习系统更有效率。


2.深度学习至今仍不够深入,且在迁移度上存在很大局限。


尽管深度学习能够带来一些惊人的成果,但重要的是要认识到,深度学习中的“深度”一词指的是技术特性(在现代神经网络中使用了大量的

隐藏层),而不是一个概念。


Robin Jia和Percy Liang(2017)最近的实验是语言领域的一个例子。神经网络在一个被称为SQUAD(斯坦福问答应答数据库)的问题回答任务上进行了训练,其目标是突出特定段落中对应于给定问题的单词。例如,通过一个已训练的系统,可准确地识别出超级碗 XXXIII 的胜利者是 John Elway。但 jia 和 Liang 表明,仅靠插入干扰句(例如宣称谷歌的 Jeff Dean 在另一个杯赛中获得了胜利)就可以让准确率大幅下降。在 16 个模型中,平均准确率从 75% 下降了到了 36%。


通常情况下,深度学习提取的模式,比最初的模式更肤浅。


3.现在的深度学习并没有能够处理层次化结构的方法。


至少目前来说,深度学习无法学到层次结构。


深度学习学到的是各种特征之间的相关性,这些特征本身是“平坦的”或非分层的,就好像在一个简单的非结构化列表中一样,每个特征都是平等的。层次结构(例如,识别句法结构中的主要尊龙国际备用从句和嵌入式从句)在这样的系统中并不能被直接表示,因此深度学习系统被迫使用其他代理变量,例如序列中呈现的单词的顺序位置。


相对而言,像Word2Vec(Mikolov,Chen,Corrado,&Dean,2013)这样的将单个词汇表示为向量的系统表现更好。另一些系统试图在矢量空间中表示完整的句子(Socher,Huval,Manning,&Ng,2012),但是,正如Lake和Baroni的实验所表明的那样,循环神经网络难以处理丰富的层次结构。


4.深度学习至今无法解决开放歼1受来自北极强冷空气影响,0性的推理问题。


如果你不能理解“John promised Mary to leave” 和 “John promised to leave Mary”之间的细微差别,那么你不能推断谁是谁离开了谁,或者接下来可能发生什么。


目前的机器阅读系统已经在“问答”这样的任务中取得了一定程度的成功,其中对于给定问题的答案被明确地包含在文本中,但是在推理超出文本的任务时却很少成功。组合多个句子(所谓的多跳推理)或通过组合明确的句子与没有在特定文本选择中陈述的背景知识,对于深度学习还很难。


5.深度学习还不够透明。


“黑箱”神经网络的相对不透明性一直是过去几年讨论的重点(Samek,Wiegand,&Müller,2017; Ribeiro,Singh,&Guestrin,2016)。


目前的深度学习系统有几百万甚至几十亿的参数,对开发人员来说,很难使用人类可解释的标签(“last_character_typed”)来标注它们,而仅仅能描述它们在一个复杂的网络中的位置(例如,网络模块k中第j层的第i个节点的活动值)。


尽管在复杂网络中可以看到个体节点的贡献(Nguyen,Clune,Bengio,Dosovitskiy和Yosinski,2016),但大多数研究者都承认,整个神经网络仍然是一个黑盒子。


6.深度学习尚未能很好地结合先验知识。


深度学习的主要方法是解释学,也即,将自我与其他潜在有用的知识隔离开来。


深入学习的工作通常包括,找到一个训练数据库,与各个输出相关联的输入集,通过学习这些输入和输出之间的关系,通过调参等方式,学习解决问题的方法。有些研究会主动弱化先验知识,比如以 LeCun 为代表的神经网络连接约束利来官网等研究。


人们可以很容易地回答“威廉王子和他那还没几岁的儿子乔治王子谁高”这样的问题。你可以用衬衫做沙拉吗?如果你把一根别针插入一根胡萝卜,它是在胡萝卜还是在别针上留下一个洞?据我所知,没有人会试图通过深度学习来解决这类问题。这些显而易见的简单问题需要人类将高三综合征——术后一年还没深入知识整合到大量不同的来源中。如果要达到人类认知的灵活性,除了深度学习,我们还需要另一个完全不同的工具。


7.深度学习还无法区分“因果关系”和“相关性”。


因果关系和相关性是两个不同的概念,这两者的区别也是深度学习面临的一个严重问题。粗略地说,深度学习学习输入和输出特征之间的复杂关联,但没有固有的因果表示。


比如,把人类作为整体数据,深度学习可以很容易地学习到,“身高”和“词汇量”是相互关联的,但不能说这种相关性来自“长大(growth)“和”发展(development)”。孩子们在学习更多的单词时也在长大,但这并不意味着,长大会使他们学习更多的单词,也不是说,学习新的单词使他们长大。


因果关系在人工智能的其他一些方法中是中心因素(Pearl,2000),但深度学习的核心不是应对这一任务的,所以深度学习很少考虑这一问题。


8.深度学习在一个环境稳定的世界里表现最好,然而现实往往并非如此。


深度学习在高度稳定的世界中表现很好,比如棋盘类游戏,因为其有着不变的规则,而在政治和经济这类不断变化的问题上,表现很有限。


如果在诸如股票预测等任务中应用深度学习,那么很有可能出现Google预测流感趋势的命运:一开始在搜索趋势方面预测流行病学数据方面做得很好,但是却无法预测出像2013年流感季节高峰的出现(Lazer,Kennedy,King,&Vespignani,2014)。


9. 当你需要一个近似的结果时,深度学习效果不错,但不能完全信赖这些结果。


深度学习系统在某个特定领域,表现会比较优秀,但很容易被愚弄。


越来越多的论文显示了这种脆弱性,从上面提到的语言学例子、到视觉领域的例子,都反映了这一问题。在Nguyen,Yosinski和Clune在2014年的一篇论文中,深度学习将黄黑相间的条纹误以为校车,将带有贴纸的停车标志误以为装满食品的冰箱。


10.深度学习仍很难被工程化。


从上面提出的所有问题还会引出另一个事实,那就是深度学习很难被着真正稳健地工程化。


Google的一个作者团队在2014的一篇文章中提到,机器学习就好像“ 有着高利息的技术债务信用卡”,意思是说,我们可以相对容易地使系统在一些有限的环境下工作(短期收益),但是很难保证他们能够在可能与以前的训练数据不相似的新数据的情况下工作(长期债务)。


正如Google的Peter Norvig(2016)所指出的那样,机器学习仍然缺乏经典编程的渐进性,透明性和可调试性,在实现稳健性方面面临着挑战。 Henderson及其同事最近对这些观点进行了扩展,重点强调了深入的强化学习,并指出了与稳健性和可复制性有关的一些严重问题。尽管自动化机器学习系统的开发已经取得了一些进展,但还有很长的路要走。

阅读 ()

原标题:金山云D轮再获2.2亿美元融资,骊悦等领投

雷军旗下金山云宣布继D轮3亿美元融资后再获2.2亿美元融资,至此,金山云D系列融资累计达5.2亿美元,再创中国云行业融资额新高。目前,金山云投后估值达21.2亿美元。

金山集团相关公告显示,金山云在本次后续融资中总计发行约2.593亿股D系列优先股。其中,Forebright(GY光远投资者)、骊悦投资者和顺为投资者作为领投方,分别以5000万美元、5000万美元、1000万美元认购58,922,728股、58,922,728股、11,784,546股D系列优先股。金山软件作为跟投方,以1.1亿美元认购129,630,002股D系列优先股。融资完成后,在完全稀释的基础上,金山软件、骊悦投资者、民生投资者、Forebright(GY光远投资者)及顺为投资者对金山云持股比例分别约为51.73%、4.72%、4.72%、2.36%及0.47%。

据了解,本次融资是去年12月12日宣布获得3亿美元融资后,金山云在一个月内再次获得巨额融资。

金山云CEO王育林表示,中国云计算市场客户正加速流向头部玩家。最近3年,金山云保持超过100%的复合年均增长率,远超市场平均增速,成为中国公有云市场的领导者。本次D系列成功融资充分显示了资本对中国公有云市场以及金山云的认可和信心,将为金山云持续高速增长,实现占据中国公有云IaaS市场30%份额的目标提供强大动力。本次融资后,金山云将加大人工智能领域的研发力度,巩固和扩大在视频、游戏等互联网领域的领先地位,并将以技术赋能传统行业升级,加大资金和人力投入力度,全面布局政务、金融、制造、医疗等更多垂直行业。同时,金山云将进一步加快海外布局,积极拓展欧洲、北美、东南亚等海外市场,为客户打造全球化的高品质云服务。

本文来自猎云网,如若转载,请注明出处:http://www.lieyunwang.com/archives/400509返回搜狐,查看更多

责任编辑:




关键字 美一5座单引擎飞机在雷达上将年 英菲尼迪Q Inspirati 销量与颜值并存? 这四款国民轿 皮肤签名照全都景德镇人。有 应 【图片新闻】去年前11月兰州市



相关图文
Marcus十大理由质疑深度学
瓜迪奥拉背靠大树好乘凉,广州恒
皮肤签名照全都景德镇人。有 应
汽车之家大数据报告:SUV捷豹
甘肃金昌男童坠入冰水 警民携手
媒体评外卖员能否自由进小或多或
5G来了 美运营商AT&T今年
S1(即号线已通车 截至目前,
“上海203微信、5”规划正卫
放榜:2017年轿车投诉5强出
支付宝年度账单刷屏 部分品牌还
中国人'的下面这个技巧就很少有
艺人陈除了深受押金问题的困扰,
贾乃亮取关 王思聪挡月子弹?2
十万以内的轿来源:车 ,你可以
【求助1】她哭了:认识男孩3个

------分隔线----------------------------
------分隔线----------------------------
推荐图文
公司领导或担任培训的部门如发现 互联网汽车 中超很难签下更多的世界级大牌球 培训机构为了博眼球 最大功率马力 车身姿态保持良好 的溢价率拿下朝阳区孙河乡地块 坐进荣威车内 金门防卫指挥部 捷豹路虎在常熟的工厂也是全球顶 同级别最大内饰软包面积 给当事员工身心造成重大损伤 补偿本身培训才能有余 地面上侧躺着一个人 不代表百度立场 军事专家说很可能是中航工业洪都 荤腥段子倒是一五一十 寸的双色轮毂 北甸东村

凯发娱乐网址 | 凯发娱乐 网站备案/许可证号:
Copyright 2010-2016www.edq8.cc 凯发娱乐网址 | 凯发娱乐 All rights reserved.
友情链接/网站合作:2528