张维为《这就是中国》第197期| 人类智能时代:从中华文明中汲取智慧
来源:观察者网
2023-08-13 08:33
“如何回应人工智能带来的挑战?我们可以从中华文明和中国式现代化中汲取智慧。”
“通用人工智能会催生重大的技术和产业创新,可能会导致行业生态的重新洗牌。”
在东方卫视8月7日播出的《这就是中国》第197期节目中,复旦大学中国研究院院长张维为教授和清华大学人工智能研究院常务副院长孙茂松教授,共同探讨人工智能的现状与前景。
张维为:
2023年6月26日,我应邀来到孔子故里山东曲阜尼山脚下与来自全球政企学研各领域的数百名代表,共同探讨“人工智能时代:构建交流、互鉴、包容的数字世界”这样一个主题。在这次世界互联网大会数字文明尼山对话上,我有一个发言,现在跟大家汇报一下,是我的一孔之见,供大家参考。
人工智能的发展是一把双刃剑,既是机遇也是挑战。从机遇来说,它可以极大地方便人类的工作、生活;从挑战来看,它可能颠覆许多产业,甚至被武器化,最终伤害整个人类。如何回应人工智能带来的挑战?我认为我们可以从中华文明和中国式现代化的成功中汲取智慧。
首先,作为一个“文明型国家”,中华文明延续五千多年至今仍然生机勃勃,而且实现了现代国家的转型,一个重要的原因是中华文明具有拥抱新事物同时能够“守正创新”的特点。中国人拥抱新事物的热情举世罕见,“苟日新,日日新,又日新”这一千年古训,一直激励着我们推进中国的现代化事业。短短数十年间,中国完成了从农业文明迈入工业文明,又迈入信息文明的伟大变革。中国今天已经处在包括人工智能在内的第四次工业革命的全球第一方阵。
其次,中华文明具有源远流长的辩证思维的传统,对于不那么具有确定性的新事物,我们往往允许试验,并以“趋利避害”的辩证思维加以对待,力求最大限度地发挥它对人类生活的有利一面,减少其有害的一面。我们的执政理念和做法,包括代表先进生产力发展的要求,包括顺势而为,包括在发展过程中解决可能出现的各种问题等等,这些本身都包含了中华文明的许多政治智慧。
中华文明是见过大世面的文明,它很少惊慌失措,而是勇敢地面对挑战,既来之,则安之,尽可能实现人民利益最大化、损害最小化这样一个目标。
张维为院长出席2023年世界互联网大会数字文明尼山对话
第三点,中国式现代化的成功背后是源远流长的“民本主义”文化传承,也就是“民为邦本,本固邦宁”,它体现在“以人民为中心”的发展理念中。国家的任何政策,包括互联网政策、人工智能的发展与治理的有关政策,都首先聚焦满足人民对美好生活的追求,为老百姓提供用得上、用得起的信息服务。这也是为什么中国成了世界上唯一的一个做到了“一部手机、全部搞定”的国家。
这与另外一些国家相比完全不一样。那些国家从一开始就把互联网发展“政治化”,然后在全世界范围内推动“颜色革命”,中国的做法和它形成了鲜明的对照。但这种损人不利己的做法最终也导致这些国家本身内部出现了民粹主义泛滥以及社会严重分裂、严重撕裂的局面。
民本主义理念还意味着中国式现代化关注对资本力量的必要引领,从而在整个国家层面形成一种政治力量、社会力量、资本力量,有利于绝大多数人的利益平衡,而非资本利益独大,那最终会损害广大公众的利益。
第四,中华文明具有“推己及人”“和而不同”的文化传统,这十分有利于推动不同国家、不同文化乃至不同文明之间的互学互鉴。中国过去数十年就是这样一路走来而且受益良多。今天,面对人工智能的挑战,没有一个国家能够置身事外、独善其身。唯有世界各国携手努力,共同维护人类的整体利益,共同遏制可能出现的人工智能滥用,从而使人工智能能够真正地造福人类,而非少数人,少数国家。
第五,中华文明具有“兼听则明”“有事好商量”的文化传承。我曾在不同的场合谈过中国“微信革命”背后的中华文明密码。我说,相比其它语言,中文是世界上最凝练的语言,一部手机的小小屏幕上,中文可以处理的信息远远多于其它语言。此外,中国文化具有“兼听则明”“兼收并蓄”“有事好商量”历史传承,中国人可以随时随地拉个微信群来商量事情。所以,这一切都为“微信革命”提供了非常宝贵的人文基础。现在我们讨论人工智能的全球治理,可以从中华文明中借鉴我们最擅长的协商民主。国际社会确实有太多的技术问题、伦理问题、法律问题等等,需要共同商量、民主协商,才能真正地实行有效的管控乃至问题的解决。
同时,我们要十分警惕且坚决反对世界上少数国家奉行唯我独尊、以邻为壑的立场,他们甚至提出要把中国排除在人工智能的“行为规则”之外,他们说要“抢在中国之前”制定人工智能发展的规则。我想他们的做法是非常短视的,也是不可能成功的。
第六,中华文明从来都把危机看作是“危”与“机”并存,人工智能的时代就是风险与机遇并存的时代。人类社会随着全球化和互联网发展早已日益密切地联系在一起,一荣俱荣、一损俱损,唯有携手合作,国际社会才能应对人工智能时代的各种挑战,才能共同更好地构建人类命运共同体,我想这也是唯一正确的方向。
如果人类社会能够沿着这种积极的方向前行,那么从一个更为积极的角度来看,人工智能的合理发展也符合马克思提出的共产主义社会的理想,也就是说在人类经济和技术高度发达之后,人类的必要劳动时间将大大减少,人类将拥有更多的闲暇时间,体力劳动和脑力劳动之间的差别、城乡之间的差别都将消失,人类也会因此而获得更大的自由和幸福。
我今天就和大家分享这些。谢谢大家。
孙茂松:
我长期从事人工智能研究,现在尝试从技术角度延展谈一下。
去年年底ChatGPT异军突起、一鸣惊人,标志着通用人工智能开始走进人类的视野。而这一点,在一年以前还是不可想象的。
下面简单讨论一下ChatGPT的主要技术特点。它的核心算法是“下一个词预测”,是由这个基本策略驱动的语言生成模型,貌似简单,但其实不简单。
举个例子,你随便给机器一句话,然后在任何一个地方停下来,比如说,我昨天晚上吃了。“昨天晚上吃了”叫上文,给定这个上文去猜下一个词应该是什么词,这叫“下一个词预测”。但下一个词我是告诉电脑了,就是“饭”,所以算法就会调动它的人工神经网络机制,使得下一个词出现的应该是“饭”。
听起来就这么简单,但“把这个事告诉它”这件事,实际上是一个了不起的策略,叫自监督学习。不需要人告诉它,机器自己就知道答案。这一点保证了这个算法可以对互联网上任何一个句子来做这个操作,不需要人的丝毫介入。
chatGpt/资料图
我在互联网规模的语料库上去统计,就会得到不同概率分布,比如我昨天晚上吃了“饭”,它有一个概率分布,比如说3.5%;我昨天晚上吃了“菜”,比如说2.8%;我昨天晚上吃了“桌子”,这个概率分布一下就变很小。总之,你可以得到一个给定了上文、它下一词的概率分布。那么,这大概有多少词呢?词典有多大,它就有多大。比如,《现代汉语词典》大概有五六万词,它就有五六万个选项。比如你要基于字来生成,《康熙字典》四万八千个字左右,它就有四万八千个选项。靠着这个大数据,概率统计就可以做得比较准确。
如果再往前挪一个词,上文就变了。比如“我昨天晚上吃了北京”,第一你知道它肯定没说完,第二大概率后面就应该出现“烤鸭”“烤肉”这类词。“烤鸭”的概率我估计能到百分之二三十。如果说“我昨天晚上吃了上海”,那后面出现“小笼包”,也是大概率;第二估计是上海小馄饨。这样它的分布就变了。所以在大数据的加持下,我任意给定一个上文,就会得到一个比较合理的下一个词的概率分布。这一点实际上是了不得的,因为上文是无限的。
这件事实际上,一是靠大数据,再一个是靠大模型,即深层神经网络,也就是基于Transformer架构的深层神经网络,才可以把这件事做出来。当然,要做出来还需要大算力。大家都很熟悉,要做出来,这“三个大”缺一不可。一旦有了这套东西,你就可以让机器生成任何你想生成的句子。这是它的一个基本机理。
这种生成式算法具有强大的文本内容生成能力。举个例子,比如我们现在让机器写五言律诗,每句五个字,一共四十个字。你对每一个字的选择,就好像你走路走到一个路口,有多少个分叉呢?比如《康熙字典》四万八千个字,大概是四万八千个选项,这里边有的路比较宽,那接续比较自然;有些路是很窄的,可能根本不能接续,那四万八千个选项不可能都是通畅的。
我假设平均一个路口后边有一百个字的选择,这应该是比较保守的估计,那么能够产生多少首不同的比较通顺的五律,我们可以简单算一算,一个路口,如果有一百种可能性,总共连续四十个路口就是一百的四十次方,理工科同学一看这个数就害怕了。给大家一个形象的比较,全宇宙中的原子加起来大概是这个数。换句话说,我们人类自古到今流传下来的五律不超过五十万首,和我刚才讲的数相比,这五十万首只是什么?不能叫沧海一粟,叫“银河系一粟”。所以它有巨大的创作空间,大多数五律我们人类都没有来得及写出来。
这种方式就使得我们的创作形式产生了变化。比如以前要写诗,你自己殚思竭虑,会去琢磨怎么写出新意。但人工智能这个模型就变成,我可以把整个空间生成出来,天文数字的五律诗词生成出来,然后你来挑。如果你对其中个别字不满意,就去改一改,所以它的模式就变了。挑的过程既可以让人去挑,也可以让机器去挑。比如说我们如果到岔口,就找宽的道去走,肯定是通顺的,但新意就不够;如果按窄的道路去走,非常具有新意,但有可能不通顺。可见,这种模型的创造能力不可限量。
以ChatGPT为典型代表的通用人工智能会催生重大的技术和产业创新。比如ChatGPT和搜索引擎结合就很有可能催生下一代搜索引擎。它也可能带来产业生态的重新洗牌,比如ChatGPT最近把插件和一些大的知名公司合作,比如跟旅游公司合作,用户去订酒店订机票的时候,就用人类语言去跟它讲,可以表达非常复杂的诉求,假设我想在王府井附近订一个酒店,最好离购物区近一点,但又不要太吵,价钱适中,这个诉求以前可能需要费半天劲才能解决,但如果和ChatGPT合作,就有可能比较好地理解你的意愿,然后快速给你订到你希望的酒店。刚开始可能还不太行,但你在跟它的交互过程中,最后订了这家酒店,相当于你给它做了深层次的语义标注,它就会越做越好。可以设想它如果能够很好地理解用户订酒店的诉求,一句话把这事搞定,那么其他的办旅游的网站应该机会就不大了。现在ChatGPT和衣、食、住、行、用、教育等行业有影响的网站结合,未来会影响行业生态,可能导致行业生态的重新洗牌。这是更值得我们警惕的,因为生态竞争是最高形态的竞争。
4月,中共中央政治局召开会议,提出要重视通用人工智能发展,营造创新生态,重视防范风险,不管我们愿意还是不愿意,人类通用人工智能之路已经开启,它是不以人的意志为转移的。正如张维为教授所指出的,前路充满着巨大的机遇和挑战,确定性与不确定性并存,这将是对人类智慧的一次重大考验。我就讲到这里,谢谢大家。
【圆桌讨论】
主持人:谢谢两位教授的演讲,因为生成式人工智能的出现,也让普通人觉得人工智能离我们并不遥远。想问一下孙教授,人工智能将来到底会怎么样地进入我们的生活?
孙教授:其实只要是人和机器用人类的语言打交道,所有这些场合它都会发挥重要作用。比如说现在中国老龄化程度越来越严重,老年人很孤独,如果设计一个人形机器人,配上ChatGPT,让机器人去理解并根据人的某种偏好,来产生回答,就可以用作陪伴老人的机器人,而且是个性化的。这就是一个很大的产业。
华为发布盘古大模型3.0
主持人:因为我们都知道中国正在迈入一个老龄化社会,未来健康产业是巨大的一片蓝海,人工智能在这个领域里会有很大的作用。
张教授:最近华为发布的盘古大模型,赋能千行百业,比方说制药业,它可以降低药物研发成本百分之七十,以最快速度从海量药物分子筛选出最适合的小分子。而且关键是ChatGPT用的是英伟达的芯片,盘古用的是华为自己研发的昇腾芯片,这也是一个重要的突破。
主持人:我还可以举个例子,比如给农业生产赋能。种植农作物的时候,通过人工智能的一些设备辅助,可以非常精准地感受到植物的生长状况,可以让生长周期再快一点或者再缓一点来满足外界的需求。所以千行百业都可以接受人工智能的服务。当然我们刚才说的是人工智能赋能的一部分,为什么我们会这么关心人工智能?是因为大家看到它带来的能量之外,也有担忧。人工智能未来会不会产生一些颠覆性的变革?
张教授:我看到有一个报道,关于美国国防部的一项试验,说是一个人控制无人机打仗,然后他给无人机下命令说你必须停止发射,结果无人机把这个指挥员打死了。因为它通过大数据积累判断,认为你的指令不符合我的利益,就把你打死了。但是后来美国国防部说这不是真实发生的事情,而只是他们预设的一个场景,但他辟谣辟得晚了。同时,人们也觉得这种情况是完全可能的。
主持人:类似这种情节,我们在科幻电影里看到过。以往可能大家觉得这个事离我们很遥远,但像这种通用的生成式人工智能的出现,突然一下觉得这个隐忧不得不重视起来。现在有不少的科学家都已经提出来,生成式人工智能的发展要缓一缓。
孙教授:刚才张教授举的那个例子,其实专用人工智能就可以,而且我相信它已经是现实的,已经不是科幻电影了。比如把物体识别能力再加上某些定位,再加上机器人有执行能力,所以我觉得应该已经存在危险。
主持人:孙教授能否给大家做一个解读,我们现在整个人工智能的发展到了什么样的水平和状态?在上海举行的世界人工智能大会,每年都有热词,今年讨论的就是大模型。您刚说“三大”,大数据、大模型、大算力,您能不能给我们做个介绍,世界人工智能的领域和中国目前是怎样的发展水平?
孙教授:我们国家和全球在人工智能领域的发展水平对比,在ChatGPT之前应该说差不太多,一般美国是领跑,我们是跟跑,这是一个总的状况,但我们跟得比较快,我觉得比美国差半个肩膀。但这次ChatGPT出来,一下子把我们甩掉了一百米。从通用人工智能角度来看,我们和ChatGPT有非常大的距离。但从它的专用能力来看,大模型有专用能力,应该是差不多。通用能力,可以有些例子去测试,ChatGPT4,你给它一些问题,回答得还都比较靠谱。我们自己的系统,有时候测试会产生一个不错的句子,你会觉得悬的心好像放下了,但实际上还是有很大差距。
主持人:这一次世界人工智能大会上有几十家大模型的相关院校、厂家、企业等,都拿出自己的作品来参与展览。大家意识到,我们在通用型的生成式人工智能这一块有比较大的距离,所以很多设计方、科研机构都开始发力追赶。
张教授:中国人看得很清楚,我们的差距在哪里,哪些地方是有优势的,哪些地方是有劣势的,然后想办法弥补。我看了这次华为发布的一些报道,他们做事情也是从源头,包括从芯片和大模型开始做很多事情。
孙教授:我刚才讲,我们的大模型的专用性还是没问题的,它即使不具备通用性,但结合各个行业能发挥很大的效果。
张教授:任正非有一个判断:人工智能软件平台对人类社会的直接贡献可能不到2%,而98%应该是对经济、社会等各行各业的促进,所以从政府治理到金融、到煤炭、矿山、港口,华为都在做。盘古大模型与中国这种全球最强大的制造业、最完整的产业链相结合,这是美国所不具备的。
主持人:现在我们讨论通用的部分,可能未知数比较多。在技术上我们还是要抓紧升级迭代要追赶上,同步地再来考虑,它可能会产生的负面影响,到底怎么去约束它。前段时间网信办等七个部门联合发布了《生成式人工智能的服务管理暂行办法》的文件,8月15日开始施行。这里头确定了很多管理边界,比如数据不能过度收集等等。但是我注意了一下,它的原则叫包容审慎、分类分级监管。
张教授:我觉得这四个字很重要,包容审慎,“包容”放在前面,那就是先鼓励你发展,容忍你发展,然后再审慎对待。之前有个征求意见稿,这个是新的版本,有一些变化。其中一个大的变化是,之前的监管部门主要是网信办,现在包括了教育部、发改委、工信部、公安部等。另外对于社会动员这类具有舆论属性的人工智能是要严管的。我觉得这也是很合理的考量。
孙教授:应该说这个办法还是充分吸收了各方面的意见,比如刚才说的包容审慎,这个原则特别重要。因为这种生成式的模型,一方面它生成能力很强,同时它是概率式的。概率式模型就会产生幻觉现象,这是必然的。你想你一个人走路,如果在每个路口都有四万八千个分岔口,然后我让你走二十个岔口,你还能精准地走到你希望到的那个地方吗?不太可能。所以产生问题是必然的。如果监管办法是一个问题都不能出现,那这个技术就没法发展,我注意到文件中提到要分类分级监管。
这就很好,它不能零容忍,零容忍的话,这个技术就搞死了。但另一方面,确实是错误要越小越好,这实际上对技术也是提出挑战。比较好的监管,它会促进技术精准定位。适度监管,对技术本身也是一个发展。
主持人:此外,像ChatGPT4这样的生成式人工智能的出现,也让大家讨论另外一个话题,就是科技向善和科技发展之间的关系,包括像职业创造和职业替代之间的关系。比如科技公司,都可以用生成式人工智能来写初级代代码,有一些从事相关工作的人可能就失去了工作机会,包括从事初期创意的,像初期文案,初期策划,可能都会失去工作。这确实是一个问题。
孙教授:通用人工智能肯定会替代一部分人的工作,特别是重复性的、相对低端的智力劳动。从好的角度来看,是使得生产效率大大提高,生产成本降低,因为不需要这么多人了;不好的方面,是对个人来说,可能就会有一部分人失业。从工业革命到现在都是这个规律。所以这块应该是不可避免的。但它不会取代这个行业。比如写代码,好像谷歌测了一下ChatGPT4,基本上可以给它18万美金的年薪,但还是我刚才讲的,这个模型存在幻觉现象,它写的代码不能保证都是对的。所以一定是后续需要有人来校对、审视,其实是对人提出了更高要求。
主持人:就像您说可能还会催生出一些新的工作机会,创造就业也好,还是给所有人提供机会也好,它讲究一个公平性,并不是所有人都有那么好的条件来应对这种新的创造所带来的挑战。所以其实我是蛮担心这个问题的,就是生成式人工智能的活跃发展,对于普通人来说,冲击会有多大,怎么保护大家的权益?
孙教授:现在有个词叫终身学习。你不学习就落后,落后可能就丢掉工作,这其实是正常的。我想这个问题要换个角度来看,ChatGPT有严重的局限性,它不是一个基于理性思辨的算法,而是一个概率式的算法。这个东西要达到决策的层面,现在是做不到的。另外确实也会产生新的行业,新的职业创造。
主持人:或者我们要放宽视野,就像我们刚才讲了它会赋能千行百业,可能会在千行百业当中,根据自己行业发展的特性会创造出新的职业岗位,这是有机会的。
孙教授:将来会出现这种情况,人少了的话,机器反而能够弥补我们劳动力短缺的问题。再有,我干嘛一周一定都要工作五天八个小时。我可以少工作,去生活;只要制定合适的规则,让大家都能享受人工智能带来的这种好处,就可行。
主持人:所以我们的政府、我们的社会要做管理要做服务,其实就是希望把人工智能的正面部分发挥到最大,它提出来的挑战,或者可能会由此带来的一些管理上的难题,要更加花力气去解决。就像您刚刚说的,可能有些相对弱势的群体会受到挑战,那么可能政府就要很好地去思考,在劳动创造上、在其他岗位的给予上,怎么去保护这样的人群。因为社会公平始终是我们非常重要的追求目标。
张教授:放宽思路,最终可能是必要劳动的大幅减少。比方说过去是每天八个小时,一周工作五天,以后每个星期工作三天、至两天,获得同样的收入、甚至更高的收入,你将有更多的闲暇时间,我们要放眼未来。
【提问环节】
观众:两位老师好,主持人好,我叫王洪丹,毕业于香港大学,同样是一名互联网从业人员。刚刚两位老师多次提到人工智能是一把双刃剑,今年未来科学研究所也发表一篇公开信,呼吁所有的人工智能实验室停止训练比ChatGPT4更强大的人工智能模型。一方面是担忧人工智能可能会产生一些误导性信息,另一方面是担忧人工智能有可能会超越我们人类的思维,甚至是取代它。在这样一个人工智能发展的时代下,安全和公众的信任接下来将如何发展呢?谢谢。
张教授:我个人感觉大概这样的,可能有点像核能、原子弹发展的历史。当核能开始发展的时候,大家相当积极,但产生原子弹后大家非常悲观,包括爱因斯坦,他的理论为此作出过贡献,但他呼吁一定要停止核武器,他变成反战的和平运动创始人之一。
你刚才讲的科学家们的呼吁,我完全可以理解。但是我自己研究国际政治和国际关系,我的判断是说不定人类还得走过去核武器发展的老路,还是大家不得不发展,不得不竞争。
你看最近的报道,英国跟美国在谈要在今年下半年在英国开一个人工智能国际会议,他们明确地说,要赶在中国人之前制定规则,要让所谓的“民主国家”团结在一起。当然,我认为这将是徒劳无益的,因为中国跟美国已经处在第一方阵。但我担心最终还是要通过这样的竞争,经过摩擦、斗争、交锋到一个点上,人类智慧和理性才会回来。就跟核武器一样,甚至已经使用过了,最后超级大国之间、核武器国家之间才通过谈判达成各种各样的、比如核裁军协议等等,但执行时候还会碰到很多困难。在人工智能领域内,我们可能也会经历这么一个跌宕起伏的过程。总之,我不是十分乐观。
今年3月,图灵奖得主Yoshua Bengio、伯克利计算机科学教授Stuart Russell、特斯拉CEO埃隆·马斯克、苹果联合创始人Steve Wozniak 等在内的数千名对人工智能关注的人士发起一封公开信,呼吁暂停训练比GPT-4更强大的系统,期限为六个月,理由是这些模型对社会和人类存在潜在风险。
孙教授:我同意张教授的判断。这个事不以人的意志为转移,除非全球形成共识,否则停不下来。因为涉及到国家竞争,甚至是终极竞争,通用人工智能还只是在一个很初级的阶段。现在我们担心什么?按它的算法,它现在这个能力都不应该有。但它有了这个能力,就怕模型再做大以后会产生别的东西。
主持人:更何况万一迭代的速度越来越快。
孙教授:对。我刚才演讲专门讲了不确定性和确定性并存。当前程不明确的时候,大家一定想要去一探究竟,这里边主要的动力其实是来自科学、科学研究。因为让机器具有智能,初心实际上是来自科学。所以科学家就会往前走,但是他走到那一步,必然会影响社会,必然会影响产业,这件事就复杂化了。
张教授:这个点还没有到,人类就是这样前进的。我想到德国哲学家康德说过一句名言,大意是谁都知道战争不好,和平好。但最终可能还是要通过无数的战争才能实现和平,所以他认为人应该有智慧直接拥抱和平,而不是通过战争。但遗憾的是人类历史往往不是这样发展的。
这是很有哲理的。我希望我们人类的智慧能够早一点觉悟到这一点,然后形成共识一起来做事情,用中国人的智慧趋利避害,我们要超前十年、二十年、三十年把问题看清楚想清楚。
观众:两位老师好,主持人好,我叫刘浩,是一位科技行业的创业者。现在世界各国都认识到人工智能是关系到国家竞争和战略博弈的一个关键因素,但是也没有形成一个统一的治理模式。我的问题就是现在像欧盟、美国他们有怎样的规范和治理?如何更好地推动人工智能技术在多元文化中的交流,谢谢。
张教授:很多差别已经明显存在了。我们过去讨论人权时候也说过,像欧洲很多国家,包括法国这样的国家,到现在都认为人脸识别是侵犯人权,但中国人拥抱新事物的热情,真的是在基因里的,同时我们能够守正创新,趋利避害,在发展过程中解决可能出现的问题。
至于国际标准的制定,某种意义上,因为中国应用场景和应用实践非常之丰富,我觉得中国现在自己制定的、哪怕是中国国内的各种标准,都可能产生全球的影响。比方说,你现在出门,走半个小时,被拍了一百次,实际上我们的公安系统如果要查人脸识别等,它是有一套比较严格的程序的。再比方说,我们的边检要有明确的授权才能查看你的手机和电脑,而美国的边检可以任意扣押、查看你的手机和电脑,这方面我们管理程序已经比美国严格多了。
孙教授:国外特别是欧洲,包括联合国对人工智能的科技伦理,这几年出台了几个文件。我觉得主要的原则界定得还是比较清楚的。像美国,今年在美国总统科技顾问委员会下面专门成立了一个生成式人工智能的工作委员会,相当于子委员会。
其实在人工智能科技伦理的大原则下,跟我们有很多是相通的,我认为这方面应该在联合国框架下加强国际对话,尽早形成共识。现在关键是在执行层面对这一原则的界定可能有问题。比如说刚才讲的隐私,保护隐私无论东西方都是提倡的,这是一个原则,大家都一样,但到具体领域比如说视频这块你怎么处理,这其实又跟文化有关。所以摆到桌面上,大家心平气和地谈,其实是有可能达成某种共识的。这一块我觉得应该尽早制定国际性准则。比如网信办等七部门发布的规定,再早几年科技部也有关于人工智能科技伦理的规定。这都为我们进行国际对话,打下了非常好的基础。
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。