【难度】2018年,人工智能所需跨越的难关

文章正文
发布时间:2018-01-08 03:47

学术plus】新添加号内搜索功能!

进入公众号→点击菜单【智库扫描】→【搜搜文章】

→输入关键词→一键检索您需要的文章。快来试试!

【兼职】神秘岗位正在向你招手,敢来么?

【厚度】学术plus年终巨献:2017年你不可以错过的重磅报告们!(全文阅读链接)

本文转载自:乌镇智库,文: Tom Simonite

2018年,人工智能所需跨越的难关

原文:As Artificial Intelligence Advances, Here Are FiveTough Projects for 2018

来源:

要点

要让机器人完成特定的任务,就需要针对专门的任务进行编程。它们可以通过反复试错,学会抓握物体。但这个过程相对缓慢。一条比较可行的捷径是,在虚拟、模拟世界中训练机器人,再把它辛苦学到的知识下载到实体机器人中。不过,这种办法受制于“现实差距”——也就是说,模拟系统中学到的技能,并不总是适用于现实世界中的操作。

AI软件是有局限性的。国际象棋、将棋、围棋都很复杂,但是规则相对简单,每走一步对弈双方都能看到。快速穷举未来“局面”这事,计算机最在行了。但在现实生活中,大多数局面和问题都不会如此结构分明。

在近期的NIPS(神经信息处理系统进展大会)机器学习会议上,讨论的主线之一就是如何让AI技术保持在安全且合乎道德的范围之内。研究人员发现,由于我们的世界跟完美相距甚远,机器学习系统在接受已有数据的训练时,会沾上不道德或不可取的行为,比如以刻板印象对待男女两性。有人正在研发特定手段,用于审核AI系统的内部运作,确保它们在金融与医疗领域运作时,能够作出公正的决策。

原文译文:

2017年,围绕杀手级机器人的议论甚嚣尘上,人工智能也大有长进。比如,一台名为Libratus的机器人力胜多名扑克高手。在现实世界中,机器学习被用于改进农业,拓宽医疗服务覆盖面。

但只要最近用过Siri或Alexa,你就会知道,虽然声势浩大,虽然让伊隆·马斯克(Elon Musk)这样的亿万富豪忧心忡忡,但人工智能做不到、理解不了的事还有很多。

理解话语

机器的文本和语言处理能力是空前的。Facebook可以为视力障碍人士朗读照片描述。谷歌可以针对电子邮件,推荐现成的回复短句。然而,软件依然理解不了我们的话语和思路。“我们可以学习概念,并通过不同的方式把这些概念结合起来,应用到新的情境之中,”波特兰州立大学教授梅拉妮·米切尔(Melanie Mitchell)说。“但这些AI和机器学习系统就不会。”

按照米切尔的描述,当前的软件还受阻于数学家吉安-卡洛·罗塔所说的“意义的屏障”。一些领先的AI研究团队正试着翻越这道屏障。

其中一个研究方向致力于让机器像人类一样,对常识和现实世界有一个基本的理解。Facebook研究人员正试图教软件理解现实,比如通过看视频。还有的则侧重模仿我们能用对世界的理解来做些什么。谷歌就在打造学习比喻的软件。米切尔就试验过一些系统,利用类比的方法和一堆有关世界的概念来解读照片中的情况。

“现实差距”阻碍机器革命

机器人硬件日益完善。只需500美元就能买到手掌大小、配备高清摄像头的无人机。能搬运盒子、靠两腿行走的机器人也大有改进。那我们周围为什么还没有充斥着往来穿梭的机械助手?因为当前的机器人四肢发达、头脑简单。

要让机器人完成特定的任务,就需要针对专门的任务进行编程。它们可以通过反复试错,学会抓握物体。但这个过程相对缓慢。一条比较可行的捷径是,在虚拟、模拟世界中训练机器人,再把它辛苦学到的知识下载到实体机器人中。不过,这种办法受制于“现实差距”——也就是说,模拟系统中学到的技能,并不总是适用于现实世界中的操作。

这个现实差距正在不断缩小。2017年10月份,谷歌公布一批实验获得了喜人的结果。在这些实验中,模拟与现实机械手臂学会了捡拾多种物体,包括胶带分配器、玩具和梳子。

对致力于自动驾驶汽车的人而言,进一步的进展非常重要。在自动驾驶技术的竞赛中,企业纷纷在模拟街道上部署虚拟汽车,从而减少在实地交通和道路环境中测试所需的时间和资金。自动驾驶初创企业Aurora公司CEO克里斯·厄姆森(Chris Urmson)说,其团队的优先事项之一就是让虚拟测试更加适用于现实车辆。“未来一年左右,如果能利用虚拟测试加速机器学习,那就太好了,”厄姆森说。他之前领导过谷歌母公司Alphabet的自动驾驶汽车项目。

防范AI攻击

运行电网、监控摄像头和手机的软件中充斥着安全漏洞。自动驾驶汽车和家用机器人也不会例外。情况还有可能更糟:有证据表明,机器学习软件的复杂性提供了新的攻击渠道。

2017年有研究显示,你可以在机器学习系统中隐藏一个秘密开关,使它一触及特定信号,便切换成邪恶模式。纽约大学的团队设计了一个正常运行的路标识别系统——除非它看到黄色的便签纸。布鲁克林一块停车路标上贴了一张便签纸,结果,系统将其报告成了限速标志。这类手法也许会给自动驾驶汽车构成麻烦。

这种威胁不可小觑,以至于最近,在世界最负盛名的机器学习大会上,研究人员们围绕机器欺诈的威胁,召开了持续一天的专题讨论会,讨论那些阴险的招数,比如生成手写数字,人类看到的是正常的数字,软件看到的却是另一番景象。举个例子,你看到的是2,机器视觉系统却将其识别成了3。研究人员还探讨了针对这类攻击的防范措施,并且担心,AI会被用来愚弄人类。

蒂姆·黄(TimHwang)是该专题讨论会的组织者,他预言,随着机器学习日益强大,部署日趋简单,它将不可避免地被用来操控人类。“现在从事机器学习不再需要一屋子的博士了,”他说。他援引了2016年美国大选中,俄罗斯进行虚假宣传的例子,并认为,那可能就是AI强化的信息战的一个先导案例。“这些政治活动中,凭什么就不会出现机器学习领域的手法?”他说。他预言,一种手段会尤其有效,那就是用机器学习生成假视频和假音频。

拿下棋盘游戏

2017年,打遍天下无敌手的AlphaGo进步神速。5月,其增强版在中国击败了多名世界级围棋冠军。其创造者、Alphabet旗下研究部门DeepMind后来又构建了一个版本,名为AlphaGo Zero,在不学习人类棋步的情况下,就学会了围棋。12月,DeepMind再次升级,推出AlphaZero,可以学会国际象棋和日本将棋(不过不能同时学)。

这些滚滚而来的重大成果固然喜人,但也提醒了我们,AI软件是有局限性的。国际象棋、将棋、围棋都很复杂,但是规则相对简单,每走一步对弈双方都能看到。快速穷举未来“局面”这事,计算机最在行了。但在现实生活中,大多数局面和问题都不会如此结构分明。

正因如此,2017年,DeepMind和Facebook都开始致力于多玩家游戏《星际争霸》(StarCraft)。目前,最好的机器人——出自业余人士之手——也不是哪怕一般玩家的对手。2017年早些时候,DeepMind研究人员奥里奥尔·温亚尔斯(Oriol Vinyals)在接受《连线》杂志采访时说,他的软件现在还不具备规划与记忆能力,无法在精心组建并指挥一支军队的同时,预测对手的下一步举措,并加以应对。并非巧合的是,这些技能也可以让软件更好地协助现实世界的任务,比如办公室工作或者真实的军事行动。2018年,《星际争霸》或类似游戏的重大进展也许预示着AI将会有强大的新用途。

教AI明辨是非

即便上述领域没有新的进展,现有AI技术普及之后,经济与社会的方方面面也会发生重大改变。在企业与政府忙于普及AI的同时,有人对AI和机器学习的潜在危害忧心忡忡,其中包括有意的和无意的危害。

在近期的NIPS(神经信息处理系统进展大会)机器学习会议上,讨论的主线之一就是如何让AI技术保持在安全且合乎道德的范围之内。研究人员发现,由于我们的世界跟完美相距甚远,机器学习系统在接受已有数据的训练时,会沾上不道德或不可取的行为,比如以刻板印象对待男女两性。有人正在研发特定手段,用于审核AI系统的内部运作,确保它们在金融与医疗领域运作时,能够作出公正的决策。

2018年,科技公司应会献计献策,设法让AI站在人类这边。谷歌、Facebook、微软等已经在探讨这个问题,并且是非营利机构AI合作组织(Partnership on AI)的成员。该机构将研究并试图规范AI对社会的潜在影响。更独立的部门也开始施压。一个名为人工智能伦理与治理基金(Ethics and Governance ofArtificial Intelligence Fund)的慈善项目正在支持MIT、哈佛等机构的AI和公共利益研究。纽约大学新成立的AI Now也肩负起了类似的使命。在最近的一项报告中,该研究机构向政府发出呼吁,要求他们承诺,在刑事司法或福利等领域,不再使用不受公开审查的“黑箱”算法。

欢迎大家评论

声明:版权归原作者所有。文章观点不代表本机构立场。

美智库发布《首次打击——中国对美国在亚洲多个军事基地的导弹威胁》

美智库分析:中国是否有能力进行一次先发制人的导弹袭击?

文章评论
—— 标签 ——
首页
评论
分享
Top