2017在元旦的到来中悄然落幕,对于人工智能来说,2017年是蓬勃发展,高歌猛进,激动人心的一年,在各方面都留下了许多令人激动的瞬间。在各行各业开始大规模应用的同时,在今年7月20日国务院正式印发《新一代人工智能发展规划》中,人工智能发展也正式上升至国家战略层面,未来前途无量。
下面,我将带领大家回顾一下2017年在人工智能领域发生的大事件。
柯洁大战AlphaGo
无论对于围棋领域还是AI领域来说,2017年5月份在乌镇举办的“中国乌镇围棋峰会”都是一件值得纪念的大事。
其中AlphaGo和中国围棋选手柯洁的一战也从某种意义上将人工智能推广到了普通人面前,无论是专业人士还是非专业的人士,都在这次比赛中对于“人工智能”有了新的认知与期待。
AlphaGo与人类的比赛早在2016年3月15日就举行过,当时AlphaGo以4:1的比分大胜韩国棋手李世石,但随后,DeepMind随即宣布AlphaGo进入闭关状态。
今年与柯洁大战的AlphaGo是16年AlphaGo的升级版,在运算能力和数据处理能力上都有了很大的升级。虽然最终柯洁0:3败落,但是这场人机对战也必将被载入史册。
AlphaGo 的故事在 10 月份以又一篇 Nature 论文「AphaGo Zero」再次展示了计算机在围棋上强大的能力;紧随而至的 AlphaZero 则将这种强大泛化到了其他领域中。
在击败柯洁等中国围棋名手之后,随着 DeepMind 宣布人机大战计划结束,AlphaGo 的故事似乎已经结束。然而在 10 月 18 日,DeepMind 的又一篇 Nature论文《Mastering the game of Go without human knowledge》再次让全世界感到震惊。在论文中,DeepMind 首次展示了全新版本的 AlphaGo Zero —— 无需任何人类知识标注。在历时三天,数百万盘的自我对抗之后,它可以轻松地以 100 比 0 的成绩击败李世乭版本的 AlphaGo。DeepMind 创始人哈萨比斯表示:「Zero 是迄今为止最强大,最具效率,最有通用性的 AlphaGo 版本——我们将见证这项技术很快应用到其他领域当中。」
没等多久,哈萨比斯的宣言就初步实现了,在 12 月 NIPS 2017 大会举行期间,DeepMind 又放出了一篇论文《Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm》,其中描述了使用 AlphaGo Zero 技术,并可泛化至其他领域任务的新一代算法 AlphaZero。新的算法可以从零开始,通过自我对弈强化学习在多种任务上达到超越人类水平。据称,它在经过不到 24 小时的训练后,可以在国际象棋和日本将棋上击败目前业内顶尖的计算机程序(这些程序早已超越人类世界冠军水平),也可以轻松击败训练 3 天时间的 AlphaGo Zero。
12 月 11 日,DeepMind 发布了围棋教学程序,其中收录了约 6000 个近代围棋史上的主要开局变化,所有变化都附带了 AlphaGo 评估的胜率。DeepMind 希望以此推动人类围棋水平的进步,在公布之后,AlphaGo 的重要研究成员黄士杰博士宣布离开项目,转向 DeepMind 旗下的其他方向研究,此举宣告了 AlphaGo 在围棋方向上的研究告于段落。
人工智能系统Libratus战胜四位德扑顶级选手
德州扑克这种复杂的扑克游戏已经被人工智能(AI)掌握。而且这个游戏还不是被征服了一次——两个不同的研究团队所开发的 bot 都在一对一德州扑克比赛上完成了击败人类的壮举。今年1月份,卡耐基梅隆大学(CMU)开发的名为 Libratus 的人工智能程序在宾夕法尼亚州匹兹堡的 Rivers 赌场为期20天的一对一德扑比赛中击败了4 名人类职业玩家 Jason Les、Dong Kim、Daniel McAulay 和 Jimmy Chou。而在另一边,加拿大阿尔伯塔大学、捷克布拉格查理大学和捷克理工大学的研究者联合发表的论文《Deepstack: Expert-level artificial intelligence in heads-up no-limit poker》出现在了著名学术期刊《Science》上,该研究团队展示了人工智能已经在无限制扑克(No-Limit Poker)游戏上达到了专家级的水平。
与信息完全公开的围棋不同,德州扑克是「不完美信息(imperfect information)」类博弈,能反映真实生活中我们面临问题时的场景,诸如拍卖以及业务谈判,因而在德州扑克上的技术突破也意味着人工智能技术的发展速度正在加快。
有趣的是,在解决同样的问题时,DeepStack 与 Libratus 采取的方式不尽相同:DeepStack 采用的是深度学习针对大量牌局变化进行训练(超过 1100 万局),从而获得在实际比赛时对获胜概率拥有「直觉」;而 Libratus 采用的是基于纳什均衡的博弈求解技术。
对此Facebook人工智能组研究院田渊栋博士解释了这次AI战胜人类游戏德州扑克的背后原理。他认为相对于AlphaGo,德州扑克这种非对称信息博弈的实用价值更大,未来有很大的发挥空间。
百度首席科学家吴恩达离职创业
3月22日,机器学习界公认的大师级人物吴恩达宣布从百度离职,这一消息瞬间引爆全网。
吴恩达在自己的离职公开信中说道:"我将继续致力于用人工智能引领这场重大的社会变革。除了推动大公司使用人工智能,也还有很多创业机会,以及更深入进行人工智能研究的机会。" 之后圈内人士一度盛传吴恩达最有可能的去处是硅谷自动驾驶初创公司Drive.ai,原因是“Drive.ai最初由斯坦福人工智能实验室的几个研究员成立,而吴恩达就是斯坦福人工智能实验室出身。
另外Drive.ai的创始人之一Carol E. Reiley是吴恩达的妻子。之后这一预测被吴恩达妻子Carol Reiley回应:他不会加入Drive.ai。另一个推测是吴恩达会做AI教育。吴恩达是在线教育平台Coursera创始人之一,很有可能做回老本行。随后经过几个月的苦苦等待,吴恩达的创业项目陆续对外公开,第一个项目是Deeplearning.ai,一套深度学习在线课程。第二个项目是成立1.5亿美元AI投资基金。第三个项目是Landing.ai,旨在AI赋能传统制造业,已与富士康等多家制造企业达成战略合作关系。
谷歌正式发布第二代TPU,对标英伟达GPU Tesla V100
5月19日凌晨,在谷歌I/O 2017大会上,谷歌正式发布了第二代 TPU。
从2016年谷歌公布了这一项目计划之后,一直等到了2017年4月才看到详细的文档介绍以及论文。TPU的目标很简单,为多种深度神经网络设计,能够高速、高能耗比地执行深度学习模型的推理任务。在当时的几种方案中,ASIC的功能完全固定,FPGA的速度优势不大,GPU做模型训练没问题但推理任务成本太高,TPU的灵活性稍高于ASIC,并提供了大幅高于GPU的推理任务能耗比。虽然论文中的对比对象有争议、TPU在某些任务中的表现也并不理想,但以TPU为代表的定制芯片方案注定将会是深度学习大规模商业化应用的必备基础设施。谷歌正式发布的第二代TPU,运算能力、存储能力都有大幅提高。相比较上周英伟达刚刚推出的GPU Tesla V100,每秒达到120万亿次浮点运算,谷歌二代TPU最高可达到每秒180万亿次的浮点运算性能。最重要的是它还可以支持模型训练。
国务院发布《新一代人工智能发展规划》
7月20日,国务院正式印发《新一代人工智能发展规划》。《规划》给出三步走战略目标:到2020年,人工智能总体技术和应用与世界先进水平同步,人工智能产业成为新的重要经济增长点,人工智能技术应用成为改善民生的新途径。到2025年,人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平,人工智能成为我国产业升级和经济转型的主要动力,智能社会建设取得积极进展。到2030年,人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。除了战略目标之外,还提出了六项重点任务:
构建开放协同的人工智能科技创新体系。
培育高端高效的智能经济。
建设安全便捷的智能社会。
加强人工智能领域军民融合。
构建泛在安全高效的智能化基础设施体系。
前瞻布局新一代人工智能重大科技项目。
苹果首篇机器学习论文获CVPR 2017最佳论文
夏威夷当地时间7月22日上午,CVPR 2017获奖论文结果在夏威夷会议中心正式揭晓。苹果去年12月发表的对抗网络SimGAN研究成为两篇最佳论文之一。该论文提出了由三部分(模拟器Simulator,精制器 Refiner,再加上一个判别器 Discriminator)组成的SimGAN训练方法。该方法是在“GANs之父”Ian Goodfellow的研究基础上提出来的。论文里提到的模型与GANs的不同之处在于输入值是合成图像,而不是随机向量。“SimGAN”中的“Sim”指的是单词“模拟器”,他们想要解决的问题是提升合成图像的质量。
不过有趣的是,该论文获CVPR 2017 最佳论文惨遭外界质疑,称其创新性突破不大。
ImageNet挑战赛退出历史舞台,WebVision Challenge作为取代
夏威夷当地时间7月26日,ImageNet大规模图像识别挑战赛正式退出历史舞台,今后由WebVision Challenge作为取代。ImageNet数据集创始人之一的李飞飞和他的学生邓嘉在CVPR2017期间的一场workshop上做了主题演讲,他们对ImageNet八年来所走的路做了深情回顾和总结。
ImageNet创办至今共举办八届挑战赛,从最初的算法对物体进行识别的准确率只有71.8%上升到现在的97.3%,识别错误率已经远远低于人类的5.1%。因此这类竞赛已经完成了它的历史使命,失去了存在的意义。WebVision 中的数据比人工标记的ImageNet数据拥有更多的噪声,识别难度会更有挑战性,另外它的数据更多是从网络中获取,因此成本也要低很多,这也是WebVision Challenge取代ImageNet挑战赛的原因。
阿里巴巴宣布成立达摩院
10月11日,阿里巴巴 CTO 张建锋(花名行癫)在阿里云栖大会上宣布阿里巴巴成立全球研究院——阿里巴巴达摩院。达摩院英文名称为「DAMO」即「The Academy for Discovery, Adventure, Momentum and Outlook」的缩写。达摩院由全球建设的自主研究中心、高校联合实验室,全球开放研究计划三大部分组成,涵盖量子计算、机器学习、基础算法、网络安全、视觉计算、自然语言处理、下一代人机交互、芯片技术、传感器技术、嵌入式系统等,涵盖机器智能、智联网、金融科技等多个产业领域。
2017中国计算机大会召开,顶级AI界大牛现场做报告
10月26日,由中国计算机学会(CCF)主办,多方协办的中国计算机大会(CNCC 2017)在福州海峡国际会展中心召开,雷锋网是大会的独家战略合作媒体。大会主题是“人工智能改变世界(AI Changes the World)”,共邀请近十位院士、300余位国内外计算机领域知名专家、著名国际国内IT企业家到会演讲。会议包括14个特邀报告、2场大会论坛、40余场前沿技术论坛及30余场特色活动,同期举办科技成果展,汇聚80余家企业参展。此次参会规模成为该会迄今为止最大,参会人数最多的一次,共计有近700家企事业单位,超过6000名专业人士参会参展。丘成桐,梅宏,沈向阳,李飞飞,汤道生等多位学术产业界大牛到场做了特邀报告。
深度学习教父Geoffery Hinton发布“Capsule”新论文 ,引发学界关注
10月28日,深度学习教父Geoffrey Hinton关于Capsule(胶囊)的新论文一发出,马上引起了学术界的热烈讨论。雷锋网也在第一时间对全篇论文进行了精译。
为了避免神经网络结构的杂乱无章,Hinton提出把关注同一个类别或者同一个属性的神经元打包集合在一起,好像胶囊一样。在神经网络工作时,这些胶囊间的通路形成稀疏激活的树状结构(整个树中只有部分路径上的胶囊被激活),从而形成了他的Capsule理论。Capsule这样的网络结构在符合人们“一次认知多个属性”的直观感受的同时,也会带来另一个直观的问题,那就是不同的胶囊应该如何训练、又如何让网络自己决定胶囊间的激活关系。Hinton这篇论文解决的重点问题就是不同胶囊间连接权重(路由)的学习。
Google AI 中国中心在北京成立,由李飞飞、李佳领导
12月13日,在谷歌开发者大会上,谷歌Cloud人工智能和机器学习首席科学家李飞飞宣布,Google AI 中国中心(Google AI China Center)于北京正式成立。该中心由李飞飞和 Google Cloud 研发负责人李佳博士共同领导。李飞飞将会负责中心的研究工作,并统筹 Google Cloud AI, Google Brain 以及中国本土团队的工作。
Google AI 中国中心的研究重点是人工智能基础研究,并与中国 人工智能学术界建立长期合作的紧密联系。李飞飞表示,Google AI 中国中心致力于中国人工智能长期研发合作的第一步,同时也非常期待能在中国本土合作上有所建树,为更广大的学生及研究人员提供高质量 AI 及机器学习的教育支持。
以上,就是人工智能领域2017年的大事件。与此同时,无人汽车的研发如火如荼、各种智能产业项目的相继落地,相信人工智能在新的一年里会给我们带来更多的惊喜与成果。
文章转自雷锋网
该贴被huang.wang编辑于2018-1-2 14:52:27