薛澜:清华大学战略与安全研究中心学术委员,苏世民书院院长、教授
百川论坛——“全球经济治理:中国与世界2024年研讨会”于4月27-28日在深圳举办,清华大学文科资深教授、苏世民书院院长、公管学院学术委员会主任、人工智能国际治理研究院院长薛澜发表主旨演讲。薛澜从人工智能技术的发展、应用、治理、面临的挑战、未来的方向等方面出发,分享了他对“人工智能的发展与治理”这一主题的思考。
人工智能发展,中国在总体上领先
“在人工智能发展方面,中国跟美国都处于行业最前沿,无论是学术研究与学术期刊发表量、应用专利申请与授予量、风险投资量等方面,中国在总体上保持着领先地位。”此外,薛澜指出,在人工智能领域,学术界与产业界之间的关系日益密切。过往机器学习关键模型的发明源于学术界,但2014年是“分水岭”,标志着产业界在人工智能的研究上开始担任“主角”。
从习近平总书记到相关部门都特别强调,人工智能尤其是大模型发展的战略意义。“这一两年会是一个转折点,就是一些互联网大厂的高管现在开始转向AIGC创业,这是一个非常重要的标志。”他还提到,AI大模型产业生态重要变革趋势,从基础层、中间层、应用层、环境层方面都有很多的变化——尤其是AI大模型在功能性、水平领域和垂直领域上的应用已经非常广泛,比如文本生成、音频生成、图像生成、视频生成等,对社会的影响是全面的。
如何保证人工智能领域,不会出现“文明的冲突”
“尽管人工智能技术在未来有更为广阔的应用前景,但若要让技术真正落地,还有诸多风险的多元性和复杂性需要考量。”薛澜指出人工智能发展的四大风险:第一是伦理安全层面的风险,如何处理人工智能与人类之间的关系;第二是产业层面的风险,大模型产业容易形成寡头格局;第三是社会层面的风险,对就业体系、教育体系、分配体系等的冲击;第四是政治层面的风险,大模型对公共舆论、意识形态、政治信任的影响。
如何保证不会出现“文明的冲突”?薛澜认为,一旦人工智能走向失控,我们所面临的问题将不再是国家与国家之间的冲突,而是硅基生命与碳基生命之间的冲突,将可能给人类的生存带来颠覆性的挑战。同时,AI模型的发展或将加剧人机进化失调、人机关系边界模糊化等风险,“本来我们希望它是我们的助手,可能到未来我们会变成它的附庸”,薛澜表达了担忧。
对此,薛澜提出了中国的解决和治理之道。他指出,在地方政府层面,北京、上海、重庆、浙江、深圳等地方政府出台了各种针对人工智能发展的鼓励措施和治理措施,已经形成了一个多维度、多领域、多层次的人工智能完整治理体系。“这样一个体系可以说是多元主体、多维共治、敏捷协同的人工智能治理体系,由政府、企业、社会组织、公众共同参与。”不过,中国仍需继续加强人工智能的基础性、原创性和前沿性的研究,真正在能突破的方面加强体制、机制和生态的完善。他强调,“最前沿的研究往往是风险比较大的领域”,如何在治理体系中平衡创新发展和风险管控之间的关系,是需要进一步审慎考虑的。
本文2024年4月30日首发于“ 大湾区评论”公众号