请选择 进入手机版 | 继续访问电脑版
设为首页收藏本站

汉山

 找回密码
 立即注册

QQ登录

只需一步,快速开始

扫一扫,访问微社区

搜索
热搜: 活动 交友 discuz
查看: 1926|回复: 1

人工智能的危与机:过犹不及

[复制链接]

2043

主题

4920

帖子

3万

积分

版主

Rank: 7Rank: 7Rank: 7

积分
31682
发表于 2015-5-20 09:18:47 | 显示全部楼层 |阅读模式


人工智能的危与机:过犹不及




译者:兔头新闻原文作者:The Economist


你教会我语言。我的收获是我知道了如何咒骂人。


——莎士比亚《暴风雨》第4幕第1景






史蒂芬·霍金最近发出警告:“一旦人工智能发展到完整的程度,人类的终结也就到了。”伊隆·马斯克则担心人工智能的研发有可能是人类存亡的最大威胁。连比尔·盖茨也敦促大家要小心。


人一手创造的怪物,会不会反过来奴役人?这种畏惧很早就有了。但就在微软、谷歌竞相投入巨资研发人工智能之时,名气响当当的宇宙学家、硅谷创业家和微软创始人却分别说出这样的忧虑,这份忧虑就有不同的份量——要注意,他们三位可不是反对或排斥工业化、新技术的人。今天,一个人的口袋里装着的可能就是一部超级计算机,战场上杀出来的可能是机器人,如果把那份忧虑简单地当是异想天开,也是有些自欺欺人。问题在于,如何避免过犹不及?


首先,我们要搞清楚,计算机现在已经具备了哪些能力,而在将来又会增加哪些能力。凭借处理能力的增强以及数据资料的增多,人工智能正处于快速发展的阶段。今天,深度学习 (deep learning) 系统能模仿人脑的神经元层,处理海量的数据,自己教自己如何去执行一些任务,譬如识别和翻译,做得几乎跟人一样好。结果,一些一直需要人脑参与的事情,大到解读图象,小到玩街机经典《青蛙过河》,现在也属于电脑程序能做的范围里了。Facebook 在 2014 年发布了名为 DeepFace 的算法。这个算法可以识别相片里的人脸,准确率达到 97%。


但必须注意的是,这些都是应用于某一具体领域狭隘的能力。目前的人工智能是通过“残暴”的数据处理能力,来达到与人脑智力的“形似”,但至于如何模仿人的自主性、喜恶和欲求,成果则很少。电脑还做不到随心所欲地思辨、判断、选择,而这些都是人类智力的特征。


但与此同时,人工智能已经可以给人类生活带来巨大的改变。人工智能现在已经能辅助人类,为人做的事带来助益。国际象棋便是一例。现在电脑可以下赢任何一个人。不过,当今世界上最强的棋手并不是电脑,而是人与算法一起合力的团队。这样的团队组合将延伸至人类其它的活动:医生有了人工智能的支持,从医疗图象中查出癌症的能力将大大增强;有了智能手机上装的语音识别软件,发展中国家读写能力欠佳的人便能更好地使用互联网;做学术研究时,数字助理可以建议你哪条假设更有机会成立;有了图象分类算法,可佩戴设备(如谷歌眼镜)可以对着肉眼看到的真实世界“加上”有用的标注。


但也不是每个方面的效益都是正面的。譬如,无论是对民主国家还是专制国家而言,人工智能都是监管人民的利器。有了人工智能,政府便可以监听数以亿计的对话,在人山人海中根据声音或样貌特征轻而易举地找出它要找的人。这就对自由造成了严峻的威胁。


尽管整个社会可以获得很多益处,但很多人会因为人工智能而处于劣势。在计算机诞生以前,给老板计算数字的苦活常是由妇女来做,后来这些职位就让晶体管占据了。同样,人工智能将来很有可能会让整个白领阶层捡包袱走人。虽说教育和培训有助打工者适应这个变化,且人工智能带来的新财富会进入新的行业从而产生新的工种,但打工者依然难免经历颠簸。


但霍金、马斯克、盖茨他们担心的并不是监控和颠簸的问题。他们担心的是近期好莱坞电影里的场景:自动化机器拥有了比人类更灵敏的认知能力,拥有了与肉身的人冲突的利益观。


这样的人工智能产品离我们还遥远得很,甚至可能永远也造不出来。无论是心理学家、神经学家、社会学家还是哲学家,在对着人脑东敲敲西敲敲地研究了一个世纪后,依然没搞清楚人的思维是怎么回事,更不要说仿造出一颗人脑。假如机器拥有自己的利益观和自主能力,即使这机器的智能不完整,只能用于某个用途,也绝非代表我们就可以放心使用:无人车跑起来比人开还好,这听起来挺赞的,但要是车有自己想去的地方,听起来可就不太妙。


虽然我们离霍金所说的“完整的”人工智能还很远,但现在就开始思考如何应对到时的情况,也是谨慎之举。“超人”又“自治”的东西,人类不早就创造过了吗?官僚体制、市场、军队,这些都是,这些都帮助人类做到没有辅助、组织时做不到的事情;这些都能自主运作,而且如果不加法规管理,都会造成巨大的祸害。


这些相似的事物或许可以令人工智能的持疑派放心一些。这些事物也喻示了人类社会如何可以安全地研发人工智能。军队需要文官管理,市场需要监管,官僚需要问责、透明;同理,人工智能系统也必须接受监督。由于系统的设计者无法预见所有的情形,还必须要有危急时刻拉闸中断的设置。加入这些限制并不会妨碍进步。大到核弹,小到交通规则,这些都证明人类曾成功运用技术和法律手段去管理威力强大的创新。


过度畏惧“自动化非人智能”的诞生,会令相关的讨论走偏。诚然,人工智能会带来危机,但注意到危机的同时,我们也要看到其庞大的效益。




* 本译文来自译言「近未来」小组,是译言的科技主题翻译项目,欢迎加入。组内的优秀译文(以编译为主)将被收录于腾讯出品的思想内刊《腾云》(采用有稿酬)。译文未经授权请勿转载,合作及授权请联系:editor@yeeyan.com





确定

85

主题

203

帖子

2171

积分

金牌会员

Rank: 6Rank: 6

积分
2171
发表于 2015-5-20 10:06:06 | 显示全部楼层
人类本来就是宇宙演化过程中的一个阶段而已,肯定会亡,该亡就亡。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|汉山网    

GMT-5, 2024-3-28 13:30 , Processed in 0.069715 second(s), 23 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表