12月27日,AI发展与治理创新研讨会在北京召开。会上,阿里巴巴集团与中国电子技术标准化研究院联合发布《AIGC治理与实践白皮书》。这是国内首部系统分析大模型和AIGC主要风险,并从应用角度提出针对性治理建议和可操作性实践方案的专业论著。
图为《AIGC白皮书》封面。
阿里巴巴于2022年成立科技伦理治理委员会,并发布国内首部《AI治理与可持续发展实践白皮书》。2023年,AIGC技术取得重大突破,成为全球AI发展的主赛道,阿里巴巴聚焦最新趋势,发布了第二部《AIGC白皮书》。
最新《AIGC白皮书》介绍了全球AIGC技术与应用的最新进展,梳理了各界对这项新技术的疑虑和担忧,剖析了世界各国治理AIGC的不同模式。阿里巴巴科技伦理治理委员会委员、阿里巴巴安全部研究员薛晖表示:“AI的发展和治理,仅凭一家企业、一所高校、一个机构无法独立完成,必须‘多元协同、开放共治’。阿里巴巴正在一边筑牢防火墙,一边突破天花板,与社会各界一道,用AI破解更多社会难题,推动AI惠及更多人。”
来自中国科学院、中国社科院大学、复旦大学、浙江大学、国家部委研究机构和国内AI企业的专家参加了研讨会。
浙江大学教授潘恩荣指出,生成式人工智能对人类经济社会发展带来巨大的观念冲击,对它的发展“宜疏不宜堵”。一方面,必须克服各种恐惧和臆想,克制“堵”的冲动;另一方面,要在实践中小步快跑地迭代出各种“疏”的方式。
复旦大学教授张谧认为,科技行业应该负责任地发展AI,兼顾AI发展和风险管控。张谧说:“现在全球范围内有AI竞赛的氛围,注重安全反而可能造成技术落后,为了占领先机便不得不搁置安全。各方应该立足长远,携手营造有序竞争,把风险控制在防护能力的界限之内,保障AI发展处于安全区域。”
张谧对AI大模型未来的安全前景持乐观态度,她援引前沿观点指出,随着评测、治理技术的成熟,以及治理体系的完善,人类提供一整套安全规则,AI就能根据规则实现“用模型监督模型”;从更长远地角度来说,AI大模型有可能自主对齐人类价值观、主动向善发展。“只要我们负责任地对待AI,就能构建‘爱人类’的AI。”张谧说。