首页 > 资讯 > 学会要闻 > 正文

上海金融与法律研究院等举办“AIGC的监管策略”专题研讨会

发布日期:2023-12-01

    11月18日,由上海金融与法律研究院和阿里研究院数字社会发展研究中心联合主办的“AIGC的监管策略”专题研讨会在沪举行。本次会议是上海市社联第十七届(2023)“学会学术活动月”系列活动之一,由研究院院长傅蔚冈主持。

 

 

    今年8月15日,国家互联网信息办公室等七部门联合发布《生成式人工智能服务管理暂行办法》,这是我国首个针对生成式人工智能产业的规范性文件。在此背景下,梳理AIGC的经济社会影响及监管策略是非常有必要的。

 

    同济大学法学院副教授陈吉栋认为,传统治理模式下,需要尽可能地穷尽现行人工智能应用场景和风险等级,需要极为庞大的系统与能力,而后进行风险评估时又需要与之相关指标。今年6月,欧盟《关于制定人工智能的统一规则(人工智能法)并修正某些欧盟立法文件的提案》对此进行了优化,发展了风险四级模式,欧盟的逻辑是先要保护最基本的价值——安全、健康、基本权利。他提议,人工智能分级治理的主线应该是法益,法益价值确定好之后是场景,场景里的指标应该是多元的。

 

    复旦大学法学院讲师丁文杰探析了AIGC对著作权法的挑战。学界主流的观点是工具论,否定人工智能的主体地位,将人工智能视为人类创作的辅助工具。他认为,工具论符合弱人工智能时代,但忽视了著作权法最本质的逻辑问题。根据我国著作权法第3条,著作权法保护的作品是文化领域内具有独创性并能以一定形式表现的智力成果。人工智能的生成内容是不是著作权法保护的作品?国内主流的观点采用的是肯定说。人类还是人工智能对AIGC中新增的独创性表达做出主要贡献,是判断AIGC权利归属的关键。AIGC进入公共领域后,如何防止冒名作品问题,将成为立法者所面临的难题。

 

    上海交通大学凯原法学院教授李学尧聚焦生成式大模型的法律监管,对于前瞻性立法的可能与限度,他建议,一是建构一个回应性的法案,可以颁布安全标准以及其他单体性立法。二是借鉴OpenAI的自我监管模式,让企业承担守门人责任。三是交给地方,容纳地方实验主义。四是更多地交给专家委员会。

 

    浙江大学光华法学院副教授冯洋认为,无论是欧盟还是美国都针对生成式人工智能开展了一系列积极的立法行动,基本的理念都是平衡发展与安全。在国际竞争的大背景下,尤其是我国生成式人工智能技术与美国仍然存在一定的差距的情况下,政策制定者也会审慎评估过度监管可能带来的损害创新的后果。他谈到,我国AIGC 的监管呈现从分散立法走向集中式、统一式立法的趋势。

 

    国家工业信息安全发展研究中心人工智能所副所长刘永东表示,人工智能的安全伦理,核心还是安全,基本原则是人类共同福祉。人工智能法案不会简单成为一个促进人工智能发展的法案。

 

    上海国际问题研究院研究员鲁传颖指出,人工智能对数字安全和国家安全会产生重大的影响,在学习欧美模式的同时,要考虑中国国情、监管能力是否匹配。科林格里奇困境中提到,技术发展有两个挑战,如果完全不监管,后面的监管成本会非常高;如果完全监管又会阻碍技术发展。因此AIGC治理上,各方有效沟通是很重要的环节。

 

 

 

供稿 ▏学会处