3月25日至27日,“中国发展高层论坛2023年年会”在北京召开。中国科学院自动化研究所人工智能伦理与治理中心主任曾毅在会议期间就如何可持续发展人工智能进行了演讲。会后提问环节,曾毅在回答人工智能AI模型在国与国之间的差异问题时表示,对于一些技术“卡脖子”问题,我们没有失去机会,失去机会的是禁止中国使用技术的企业,“我们更应该关心的问题是,当中国产生了类似的技术时要不要向全球开放,我们应该就此达成共识——中国产生的技术不会对任何一个国家封锁,至少我代表中国的科研人员做出这个承诺。”曾毅说。他的发言引发了现场观众的掌声。
曾毅在会后接受新京报贝壳财经记者采访时表示,中科院、国家实验室、清华北大等国内的研究机构实际上已对类ChatGPT技术布局多年,目前需要的是耐心等待。在他看来,ChatGPT是语言工程的组合式创新,但并不属于科学突破,更多是在用户体验上的爆发。
中国科学院自动化研究所人工智能伦理与治理中心主任曾毅
探讨人工智能伦理刻不容缓
曾毅在演讲中表示,人工智能的治理绝对不是约束人工智能的发展,没有人工智能的治理人工智能将会野蛮生长,社会需要的是能够稳健健康和可持续发展的人工智能,这是全球开展人工智能治理的目的。经过大概四五年的探索,中国人工智能的发展已经初步建立了自己的体系,通过数据算法、平台和应用的方面进行发展和治理的均衡。
在他看来,现在人工智能科学进展方面,真正推进全球可持续发展的工作非常少,在全球发布的800多万篇人工智能计算机科学的论文当中,只有0.1%是真正跟可持续发展相关的,这是一个非常令人沮丧的结论。
对于目前许多声音认为ChatGPT等AI语音模型已经初步具备通用人工智能雏形甚至具备自主意识这一观点,曾毅表示目前的人工智能,包括ChatGPT,还并不具备人类的智能,并不是社会的准成员,但这是需要探讨的问题,“未来的人工智能,不仅仅是我们今天讨论的看似智能的信息处理工具,如果它有一天真的有可能成为社会的准成员,成为道德的主体,我们希望它不仅仅是从中国的文化当中去吸取如何成为一个君子,如何从儒家、佛家、道家当中学到如何成为具有美德的人,我们还要从英国文化当中学到如何成为一名绅士,我们希望未来的人工智能汲取的是人类的文化和价值观的共通和精华。”
而对于科幻电影《终结者》、《黑客帝国》中AI主宰世界的情形会不会成为现实,曾毅表示人工智能如果真的有机会成为主体,人类是不是能够接受,这对于人类来说需要的适应过程可能比超级人工智能到来的时间还要长,所以我们一定要从现在开始做这个准备,讨论怎么去平衡它的风险和它对人类的益处。
不同国家的人工智能模型可以“和而不同”
据了解,AI最底层的支持是算力,如英伟达的GPU(图形处理器)与DPU(数据处理器),但目前个别产品遭遇了进口限制。对于此类状况可能造成的影响,曾毅表示,解决方案是“尽快地准备国产化的替代,并且把相关的技术提供给全世界。”这也引发了现场掌声。
目前,世界上各个国家均在发展AI技术,而不同国家的AI数据来源、训练方式也有所不同,AI模型可能也会因此产生差异。对此,曾毅表示AI这条路很长、很宽,谁也不知道未来AI会发展向何方,“我想没有人现在是真正领先的,每个人都有机会。”“我们要在技术驱动的社会重新审视人类,不应当因为有不同的价值观和文化而敌视对手,中国的智慧是‘和而不同’,我们要最大化这个共识,我们总希望人工智能来帮助人类演化,但人类也需要做点什么。”
而对于观众提出的AI核心技术到底应该创新还应该跟随,曾毅表示未来真正的突破将来自于那些目前来看还没有取得突破的科学贡献上,“未来我们的模式应该是这种科学的突破产生在中国,再由中国的产业来进行放大,以此来影响世界,而不是要做跟随者。现在AI大模型是一个很好的机会,产业也应当放大,但是科学的突破途径往往不是唯一的,我们要为未来的突破做好准备,要做原始的创新。”
记者联系邮箱:luoyidan@xjbnews.com
新京报贝壳财经记者 罗亦丹
编辑 徐超
校对 柳宝庆
友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com