9月1日,2022世界人工智能大会在上海拉开帷幕,集中展示全球人工智能发展成果。 中新社记者 汤彦俊 摄
尽管目前两国存在很多竞争,但在产业创新方面,中美仍是互补的,有非常多的共同利益。就拿芯片产业来说,中国占到全球芯片消费的60%左右。美国目前加强所谓的芯片供应链弹性,让其他的国家和地区在美投资。但最后如果中国不买美国的芯片,美国的芯片企业就失去了中国的市场,会对美国芯片制造业与研发造成非常大冲击。最后由于利润的下降,芯片研发的速度会放慢,又反过来损害美国所谓的国家安全利益。
如果单纯从经济和市场的角度来看,中美之间合作会继续进行。遗憾的是,美国政府正在用政治和国家安全的逻辑取代经济和市场的逻辑。希望美国纠正这种偏执的决策思维方式,选择遵循市场的规律。
甘思德:要恢复比较稳定的关系,强调比较优势,加强科技合作等,两国都要做一些让步和调整才行。
中新社记者:新冠疫情以来,中美之间的面对面对话减少,沟通渠道不够理想,经济领域存在有限“脱钩”的风险,民间层面的人文交流和往来也受阻,我们应该如何改善这个状况?
甘思德:我发现华盛顿和北京处于一个“回音室”的状态,无法得到新的一手信息,所以很难改变这些共识。因此,双方的误解增加,感情下降,日渐疏远。
要解决这些问题,必须要有面对面的交流,通过网上的交流完全不够,反而会增加误会。只有你愿意登上飞机,到别国待一段时间,融入社会进行交流,你才有机会真正地听到别人在说什么,知道他们为什么作出一些选择。
我们需要王勇教授到美国来,美国的中国问题专家去中国。只有我们这么做,才能有比较丰富、公开的对话和交流。
视频:【东西问·中外对话】美智库专家:美中需增强面对面交流,打破“回音室效应”来源:中国新闻网
王勇:甘思德教授上次来北京访问,是在疫情之后,在美国学者当中,至少是最早的(一批学者)之一。对于促进恢复中美之间的人文与学术交流起到非常大的作用,我个人对他的勇气和耐心非常佩服。
如果甘思德教授的同事能发出邀请,(如果)条件允许,我非常乐意跟其他中国学者一道访问美国,继续我们的对话。
中新社记者:近来中美之间似乎释放了一些希望重新规划和定位双方关系的信号。两位如何预判未来中美关系走向?
甘思德:我在北京和华盛顿碰到的好多人已认识到这点,两方已经知道必须加强沟通,也有足够的政治空间进行对话,在某些问题上调整自己的政策。
中共二十大结束到美国中期选举结束之后,中美关系开了一个窗口。我们要抓住机会,谈一谈该如何减少误解,对某些具体问题采取对策,提高双方的互信。应该抓住中美元首在巴厘岛会晤的机会,加强沟通。比如说,我们能不能对经济问题进行定期的磋商。以前有各种各样的机制,例如中美商务部的定期开会,一年一次的两国政府经济与战略对话。我肯定是比大部分在华盛顿的人,要乐观一些。
王勇:现在受到疫情和美国国内政治的影响,中美实际上是缺少沟通和战略互信。但从理性的角度来看,中美两国之间经济优势互补,是天然的合作伙伴。作为安理会两大常任理事国,中美对于地区和全球和平与稳定负有特殊的责任。中美之间存在着非常大的相互学习借鉴、开拓文明互鉴的空间。
中美之间的出路就是增进相互理解,相互欣赏,甚至相互赞美,看到对方的优点,学习对方的长处,在自己的治国理政当中避免不好的地方。基于这种善意和理解,中美关系还有很多出路。我对此相对谨慎乐观。
中新社记者:美国国务院亚太事务助理国务卿康达、白宫国安会中国事务高级主任罗森伯格此次访华,与中国外交部副部长谢锋举行会谈。如何看待会谈的作用?会谈能够给中美关系带来实质性改善吗?
王勇:中美两国领导人巴厘岛会晤之后,中美关系出现了比较大的变化,存在着一种“重置”的可能性。至少中美现在都感到需要去管控彼此的分歧和竞争,争取在可以合作的领域加强沟通和合作。
中美关系之所以出现这种变化,一方面是国际社会的期望,希望中美作为两个大国能够坐下来,为稳定关系,减少双方竞争失控可能对地区和国际秩序所造成的破坏而努力。另一方面, 中美作为全球最大的两个经济体,在稳定和防止全球经济进一步下滑方面负有特殊责任。双方有理由加强宏观经济协调,在能源和粮食安全等方面寻求合作,同时在气候变化等全球性问题上也可以加强合作。
反之,中美之间如果不能管控分歧、竞争,导致失控、擦枪走火,将最终损害两国的利益。从这个意义上讲,减少误判、管控分歧,为竞争装上“防护栏”非常重要,符合双方的利益。
人工智能如何做到可信、可用?专家热议:把责任归结到个人****** 中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短? 近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。 中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。 “因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。 清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。 “技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。 瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。 “但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。 将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候? 高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。 高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。” “在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。 “在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。 2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
|