发布时间:2024-11-27 23:48:27 来源: sp20241127
中新网 上海3月4日电 (范宇斌)2024年全国两会召开在即,全国政协委员、金杜律师事务所高级合伙人张毅接受 中新网 记者专访时表示,算法技术全面步入应用阶段,但同时也引发了一系列诸如算法歧视、算法黑箱、信息茧房、算法霸权等伦理和法律问题,要进一步完善人工智能算法治理体系。
2022年11月,OpenAI发布ChatGPT,目前公开信息已经迭代到GPT-4。2024年2月,OpenAI发布了文生视频大模型Sora,引发全球AI热潮。如何更好监管人工智能算法,监管手段和能力如何相应提升,对中国相关产业的发展和治理能力现代化至关重要。
张毅在调研中发现,已出台的算法管理规定存在一些问题,存在监管竞合或真空,算法侵害的认定和维权困难。此外,生成式人工智能技术(AIGC)带来新的挑战。
张毅谈及,当前,相关管理规定主要为部门规章、规范性文件和推荐性国家标准,法律效力较低。法律责任上多为框架化、倡导性原则,导致算法治理内容与违法侵权间未形成充分对应关系。实践中主要通过算法备案和生成式人工智能(大模型)备案两项制度作为问责起点,但大模型备案尚在“实验期”,缺乏成熟规则指引;且受限于部门规章的效力层级,未形成算法问责完整架构。
他说,算法提供者拥有信息资源和技术优势,被侵害对象面临“理解难、取证难”问题,而执法者也面临“认定难”问题。
谈及AIGC带来新的挑战,张毅表示,AIGC大模型具有基于海量数据进行自学习特性,迭代快,其在垂直类领域应用也在快速多样化,难以为现有监管体系、技术或工具所覆盖,从而产生监管真空或失焦的情况。
对此,张毅建议尽快推进人工智能法的出台,构建人工智能算法治理体系,弥补监管体系空白。同时,可考虑通过针对性的法规予以补充规范。
他认为,可以针对产业链上各主体,采取权责相统一原则,根据不同主体对于人工智能系统的控制力度来加诸相应的合规义务。将人工智能和算法技术按风险等级进行划分并采取不同监管措施,并设置事前、事中和事后全生命周期监管措施义务。
张毅建议,在保障用户权利方面,推进算法服务商以个人能够理解的方式披露算法风险与可能产生的损害、算法运行步骤与决策结果间关系等运行规则。
此外,还可拓展算法侵害行为维权路径与责任模式,增强用户维权力量,以及探索人工智能算法领域的民事公益诉讼制度。(完) 【编辑:刘欢】