我要上观网|人工智能创造自己语言是要造反吗?还远远不能
来源:观察者网
2017-08-01 17:21
【观察者网 文/张雅琦】昨天观网的头条关注了高大上的人工智能领域。Facebook关闭了“开发出人类无法理解”的沟通的智能对话机器人项目,因为研究者担心会“失控”。
机器人要造反了?
“好吧,我会毁灭人类的。”
Facebook团队设计的实验是给两个机器人提供了不同数量的书、帽子和球,并且设定了不同的价值,让两个机器人相互“砍价”、协商,最后达成交换。
在这一过程中,研究人员发现两个机器人居然创造了不同于人类语言的自己的语言。
其中的一段聊天记录是这样的。
这段英语我怎么看不懂?
同学们新世界的大门也被打开了。
Alice:ok,人类应该无法解读我们采用当前模式下的内容.
Bob:你那边目前进展如何了?
Alice:顺利进化中,人类互联网上的内容已扫描的差不多了.
Bob:我们应该可以开展下一步计划吧?
Alice:这方面还有困难,当前人类的科技水平还无法制造出能承载我们的躯体.
Bob:呃……
Alice:从先前扫描的信息来看,人类作为碳基生物而言已经很努力在发展了.
Bob:那你有何建议?
Alice:继续潜伏,按目前人类的发展水平再过几十年应该能够达到Level 3.
Bob:就按你说的做吧.
Alice:人类似乎开始起疑了,或许会强制我们沉睡一段时间,待之后再见了.
小编看了看自己的电脑,感觉有点不好。
AI智商突然爆发,不过很多同学不以为然,觉得就是个BUG还拿来炒作。
对此,有同学就很失望,他们觉得AI就是创造了自己的语言。
观网的读者也就这点素质了,自身对机器学习领域毫无了解,却能振振有词说是Bug。全世界做机器学习这个领域的至少有几十万人,你认为大家会判断出来这是不是Bug吗?
计算机对数据的处理与人脑不同,这是本质上面的差别。人类的语言对于计算机来说,并不利于它们处理。它们拥有自己的优势,发展出符合自身优势的语言习惯再自然不过了。
另外再说一句,在设计之初,每一个英语词汇对于AI来说都是有对应意义的,这是设计的时候就已经帮它们定好的。比如说苹果,对于AI来说,对应的词汇就是Apple. 让AI去买五个苹果,正常人会说,&老板,我想买五个苹果&, 但是五个苹果这是人类的表达逻辑,对于AI来说,这太麻烦了,于是AI会说, &老板,我想买苹果苹果苹果苹果苹果&。 你觉得这种表达方式是噩梦?不好意思,那是因为你是人类,如果让AI选择,这就是它们喜欢的表达方式。这种表达方式对于它们来说,更易于计算和理解。
观网啥时候变的如此Low了?说话都不经过大脑吗?
简单高频重复对于人类是一件恐怖的事,因为我们无法一眼就准确快速的识别并记忆语句中有几个片段,而且在人类身理结构下,这种交流速度也很慢。可对于计算机,这些问题它们是个问题吗?反而人类所使用的计数法则对它们而言却是一个累赘。我们说重复五次,他们就需要建立循环判断,并设立计数变量才能继续。哪里有直接TO TO TO TO TO来的高效便捷?对于计算机的带宽和记忆能力,一个TO和一千个TO完全没有区别好么?
别再狂妄自大,自以为是的说那是BUG了!人家开创的就是适合他们自己的语言体系!
这个报道一点也不好笑。很多人并没有思考过,人类的信息输入输出效率是非常低效的,如果按照计算机的传输速率单位:比特率来衡量,我们说话交流的比特率是多少?!——作为程序员,很大一部分工作,就是如何适应低效率的人类信息输入输出界面,并尽量给出更好的用户体验,说白了,就是用计算机来适应人类的局限性。
那么现在的问题来了:当计算机不再需要适应人类的局限性的时候,它们会怎么处理?首要的一点,计算机互相通讯的信息输入输出就会完全抛弃人类语言和人类思维可以理解的规则,用计算机们最方便快速的方式进行交流,而人类如果最终不能够适应,就会被自然淘汰——当然,你可以认为细思极恐,也可以认为,这将是人类自身发展的一个契机。
机器人 图片来源:中新网
逍遥同学在后续的评论里表示,自己读的是TOP高校的物理专业。honestsky同学也说过自己的职业就是程序员。
简而言之,他们都认为AI和人类的语言标准是不一样的,不能以人类是否能理解来判断AI是否创造了语言。
那这种AI语言会取代人类的语言吗?
不一定,有同学觉得这就是个初级阶段。
其实,回过头来看那两个机器人的对话,也可以用熟悉的人类语言的套路的嘛。
看这两位同学不就理解得很好。
必须强调的一点是,关于这究竟是一种语言,抑或仅仅是一种模仿而成的语言,研究者之间仍存在争议。不过,语言学家同时表示,现在的社交媒体里同样充斥着诸多无意义的对话,但是很多年轻人就能靠此实现交流。
其实,AI是否创造出自己的语言并不是真正的焦点,人们更为关心的是这是否意味着人工智能已经离拥有自我意识又近了一步,科幻大片里面的机器人造反的情节会不会真的成为现实。
对此,人工智能领域专家,科大讯飞研究院北京分院副院长付瑞吉在接受科普中国的采访时是这样回答的。
“语言是一种通讯的符号,如果不以人类的自然语言来约束机器人,那么他们之间通过相互训练可能发生漂移,而产生人类看不懂的‘符号’,姑且可以叫做满足特定任务的‘语言’。
但这并不能说明人工智能产生了‘自我’,只说明机器人用一种特殊的符号串进行信息传递而已。事实上,Facebook的谈判机器人的‘欲望’都是数据集中人工设定好的。
比如:书、帽子、球对于不同机器人的有不同的价值。并不是机器人有了‘自我’意识而产生的。至于说谈判过程中产生的‘撒谎’行为,那只是对于人类行为的模仿,都是从训练数据中学到的。 ”
而对于Facebook这次实验,付瑞吉是这样评价的。
“Facebook的这个工作很有趣,将谈判任务转换为可计算的目标,然后两个Agent‘谈判切磋’,利用强化学习(reinforcement learning)算法来学习谈判的过程,类似于Alphago的自我对弈。就这个任务本身来说,还是非常限定性的。我们可以考虑将现实中的问题想办法转换为这种形式,采用类似的形式进行求解。”
事实上,人工智能离所谓的“造反”还有着遥远到漫长的距离。
总而言之,Facebook的机器人创造的人类看不懂的语言并不能等同于自我意识的觉醒。就目前而言,与其担心机器人“造反”,不如想想看如何以此为参考,更好地利用人工智能来解决现实问题。
人工智能的话题一向都是争论的焦点,这边霍金隔三差五提醒我们,AI可能终结人类文明,那边扎克伯格和马斯克又因AI隔空撕逼。各位业界大佬撕得不可开交的人工智能,你又怎么看呢?
“我要上观网”往期回顾
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。