[转帖]《AI寒冬将至》作者:人工智能存在十大问题_AI.人工智能讨论区_Weblogic技术|Tuxedo技术|中间件技术|Oracle论坛|JAVA论坛|Linux/Unix技术|hadoop论坛_联动北方技术论坛  
网站首页 | 关于我们 | 服务中心 | 经验交流 | 公司荣誉 | 成功案例 | 合作伙伴 | 联系我们 |
联动北方-国内领先的云技术服务提供商
»  游客             当前位置:  论坛首页 »  自由讨论区 »  AI.人工智能讨论区 »
总帖数
2
每页帖数
101/1页1
返回列表
0
发起投票  发起投票 发新帖子
查看: 2543 | 回复: 1   主题: [转帖]《AI寒冬将至》作者:人工智能存在十大问题        下一篇 
huang.wang
注册用户
等级:中将
经验:17623
发帖:407
精华:1
注册:1970-1-1
状态:离线
发送短消息息给huang.wang 加好友    发送短消息息给huang.wang 发消息
发表于: IP:您无权察看 2018-7-5 14:12:55 | [全部帖] [楼主帖] 楼主

image.png

【导读】不久前,一篇题为《AI寒冬将至》的文章火了,引发AI领域专家学者、研究人员、学生甚至吃瓜群众的大量讨论。该文对有关深度学习的炒作提出批评,认为深度学习已经尘埃落定,就像股市会崩盘,AI的寒冬一定会再次来临,虽然无法预测它何时来临。这篇文章的作者Filip Piekniewski是计算机视觉和AI领域的专家,经过几周的思考,他重新总结了自己对AI的观点,值得深思。

最近几周,我被迫重新思考和总结我对AI的看法。在《AI寒冬将至》那篇帖子广为传播后,很多人通过电子邮件和twitter联系我,提出了很多好的建议。因此,我决定以简洁的方式写一下我认为我们的人工智能方法存在什么问题,以及我们可以解决什么问题。以下是10个要点:

1.我们被图灵对智能的定义所束缚了。图灵有关智能构想很著名,他将智力限制为一种和人类进行语言游戏的解决方案。具体来说,图灵将智能设定为(1)游戏的解决方案,(1)将人类置于判断的位置。这个定义非常具有迷惑性,并很适合人工智能领域。狗,猴子,大象,甚至啮齿类动物都是非常聪明的生物,但它们没有语言,因此也不可能通过图灵测试。

2.人工智能的核心问题莫拉维克悖论(Moravec's paradox)。这个问题在今天要比1988年它刚被提出时要明显得多,而我们在过去30年里几乎没有采取任何行动来解决这个问题,这是令人羞愧的。莫拉维克悖论的核心论点是,现实中最简单的问题比最复杂的游戏更难解。(注:如莫拉维克所写;“要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。”)我们沉迷于令AI在游戏中超越人类(以及其他受限且定义明确的话语领域,如数据集),将其作为智能的指标,作为一种与图灵测试一致的标准。我们完全忽略这样一个事实:对智能的最终判断由现实本身,而不是由一个人类组成的委员会作出。

3.我们的模型甚至可能起作用,但往往是出于错误的原因。我在其他文章详细阐述过这点,深度学习就是一个很好的例子。深度学习显然已经解决了物体识别问题,但是大量研究表明,深度神经网络能识别物体的原因与人类能观察到物体的原因大不相同。对于用图灵测试精神欺骗人类的人来说,这可能并不重要。但对于关注人工智能体处理非预期(域外)现实的能力的人来说,这是至关重要的。

4.现实不是游戏。就算跟游戏有关,它也是一个无限的游戏集合,其中的规则不断变化。任何时候只要出现了重大发展,游戏规则都会要重写,所有玩家都需要作出调整,否则就会死亡。智能是一种机制,它会进化以令智能体能够解决问题。由于智能是一种辅助我们玩“规则不断变化的游戏”的机制,因此作为一种副作用,它能让我们玩有一套固定规则的实际游戏也就不足为奇了。但反过来就不成立了:构建在玩固定规则游戏时胜过人类能力的机器,跟构建一个能够玩“规则不断变化的游戏”的系统差得远了。

5.物理现实中有一些规则是不变的——即物理定律。我们用语言描述他们,并利用它们来做预测,从而建立文明。但是为了在这个物理环境中行动,这个星球上的每一种生物体都掌握了这些定律,并不需要语言。小孩子在学会牛顿运动定律之前,就知道苹果会从树上掉下来。

6.我们的视觉统计模型其实是非常不足的,因为它们仅依赖于某一时间的事物和人类指定的抽象标签进行识别。深度神经网络能够看到数以百万计的苹果挂在树上的图像,但永远不可能发现万有引力定律(以及许多对我们来说很显然的东西)。

7.常识的困难之处在于它对我们而言是在太显而易见了,甚至很难用语言去描述它,进而在数据中给它打标签。对于所有“显而易见”的东西,我们存在巨大的盲点。因此,我们无法教计算机常识,不仅因为这可能不切实际,更根本的原因是我们甚至没有意识到“常识”是什么。直到我们发现机器人做了一些很愚蠢的事情,我们才顿悟:“哦,原来它不懂...... [这里可以填任何显而易见的常识] ......”。

8.如果我们想解决“莫拉维克的悖论”(我认为应该是当今任何严肃的AI工作的焦点),我们就多少需要模仿生物体纯粹依靠观察世界学习的能力,而不需要标签。实现这一目标的一个有希望的想法是构建一个系统,对未来的事件进行预测,并通过将实际的发展与系统的预测进行比较来学习。大量的实验表明,这确实是生物大脑中发生的事情,并且从许多角度来看这样做都很有意义,因为这些系统必须要学习物理定律。预测视觉模型(predictive vision model)是朝这个方向迈出的一步,但肯定不是最后一步。

9.我们迫切需要在图灵的定义之外定义“智能”的特征。一个不错的想法来自非平衡态热力学(non-equilibrium thermodynamics),并与预测假设一致。我们需要这样做,因为我们需要构建智能体,这些智能体肯定通不过图灵测试(因为它们没有语言智能),但我们需要一个框架来衡量我们的进展。

10.我们今天所做的几乎所有称之为AI的事情,都是可以用语言表达的某种形式的自动化。在许多领域,这些所谓AI可能有用,但这与用Excel取代纸质表格来帮助会计师,实际上没有什么不同。有问题(并且问题始终存在)的领域是自主(autonomy)。自主不是自动化(automation)。自主不仅仅意味着自动化。如果是要求比人类更安全的自主的话,那么它意味着更多,比如说自动驾驶汽车。自主应该是广义智能的同义词,因为它假设能够处理意外的、未经训练的,未知的事物。


以上是我想传达的核心要点。这些论点有细微的差别,这就是我写这篇文章的原因。当然,如果你承认这些要点,我们的观念就基本上是一致的。《AI寒冬将至》那篇文章还有其他许多细节受到激烈的辩论,虽然我认为这些细节不是必要的,但为了完整起见,让我就其中的一些表达我的看法:

1.天生的还是后天习得的?当然,有的生物具有天生的能力,但无疑也有后天学习的东西。不过,这是一个与实现(implementation)相关的问题,我认为它没有明确的答案。在我们未来的发展中,我确信我们会使用两者的结合。

2.学习特征还是人工构建的特征?这是一个相关的问题。我的观点是,“皮层计算”(cortical computation)的绝大部分会被习得,这是在AI和自主的背景下(但这并不意味着如果它被证明有用,或由于某种原因难以学习,我们就不能人工构建它)。大脑里还有很大一部分很可能预置的。在更具体的自动化应用中,这两种情况都可能会有。在某些情况下,学习的特征可能明显优于人工构建的特征(这是深度学习的卖点所在),但在许多应用中,人工精心制作和开发的特征绝对、毫无疑问优于任何学习的东西。总的来说,我认为这是一个伪命题。

3.脉冲,连续,数字还是模拟,又或是量子?我对此没有非常强烈的主张,每一种都有优点和缺点。数字简单,确定并且易于获得。模拟很难控制但功耗要低得多。脉冲(spiking)也是,,虽然它的额外好处是更接近生物学,这可能意味着它是更好的解决方案。量子? 我不确定是否有强有力的证据证明量子计算在解决智能问题方面有必要性,尽管我们可能会发现它是必要的。这些都是“如何做?”(how)的问题,但我的主要兴趣还是“是什么?”(what)的问题。


本文转自 新智元公众号


该贴被huang.wang编辑于2018-7-5 14:17:30


我超级酷,但是如果你回复我的话我可以不酷那么一小会儿。


——来自logo.png


赞(0)    操作        顶端 
koei123
注册用户
等级:大校
经验:4196
发帖:16
精华:0
注册:2011-7-21
状态:离线
发送短消息息给koei123 加好友    发送短消息息给koei123 发消息
发表于: IP:您无权察看 2018-7-27 9:23:00 | [全部帖] [楼主帖] 2  楼

还是看看最近英国议会的报告,更能说明这个领域存在的尖锐问题~~


做AI这行的,如果不知道当年英国议会大名鼎鼎的莱特希尔报告,估计不好意思出来见人 : -)



赞(0)    操作        顶端 
总帖数
2
每页帖数
101/1页1
返回列表
发新帖子
请输入验证码: 点击刷新验证码
您需要登录后才可以回帖 登录 | 注册
技术讨论