“人工智能版权前沿问题”研讨会举行

Source

随着人工智能大模型技术的发展,越来越多用户在工作生活中利用各类AI工具,提升了效率。人机交互过程中,一些问题受到关注——用户输入内容是否可用于训练AI或“模型优化”?AI生成内容的著作权该归属于谁?如何看待AI产品和行业的未来发展?

3月21日,中国政法大学民商经济法学院民法研究所、走出去智库、《互联网法律评论》联合主办“人工智能版权前沿问题”研讨会,来自法学、经济学、公共政策等领域专家学者就相关问题进行了研讨。

人机交互应注重隐私保护,数据训练则需各方联合构建更好生态

针对当前用户与AI软件间的交互,与会专家学者均强调了保护用户个人隐私的重要性,但也指出高质量数据对模型训练的巨大价值,用户更负责任地使用大模型有着重要意义。

中国政法大学比较法学研究院刘文杰教授表示,用户为让AI更好回答问题,相关提示词可能涉及个人信息。根据《个人信息保护法》,信息输入后,如果服务商想要储存、再加工,需要明示用户并征求其同意。关于敏感个人信息,我国法律还有“一事一议”的特殊规定,即处理敏感个人信息不能采用概括同意或推定同意的授权模式,而必须获得个人明确的、单独的同意。

中国人民大学法学院姚欢庆副教授进一步提出,由于个人用户对数据价值的认知和技术公司的利用能力往往不对等,当前“用户同意”机制仍有待完善,涉及个人隐私的“知情同意”应做到明白、清楚、仔细。近期受到关注的“开盒”行为,是通过不同数据库汇集和碰撞,利用看似不重要的信息反向拼图推导出个人信息。相关操作明显违法,应从整体社会规范角度进行处罚和管理。

北京理工大学智能科技法律研究中心王磊研究员就此指出,大型平台企业的数据利用大多合法合规,但黑灰产对大数据的非法运用十分猖獗。须通过政府监管、技术平台和社会多方形成合力打击黑灰产。他并指出当前高质量数据的结构性匮乏已成为制约大模型发展的瓶颈,尤以医疗、交通、金融等领域为代表。

针对当前模型训练的数据诉求,与会专家讨论指出,由于模型优化有时缺乏常识和判断逻辑,而是基于用户反馈,当不断持续喂料错误观点和结论,模型将可能赋予错误内容更优先权重。此外,数据标注环节若由非专业人员完成,标注错误往往引发“污染数据”,进而导致模型输出出现“幻觉”。对此,必须构建良好的生态系统,其中,用户负责任地使用模型也是重要一环,应让数据持有方、技术开发者和社会公众形成多方共赢。

AI生成内容要看到人与智能体的共同贡献

当前,随着AI技术的不断发展,通过简单提示词则可得到内容充实的文字、图片甚至视频,相关生成内容正更多走进社会工作和生活中的方方面面。这些内容是否涉及权属争议、是否受到版权保护,也成为近年来各界关注焦点。

中国政法大学民商经济法学院郝明英讲师指出,中国现有判例表明,如用户在提示输入、结果筛选等环节体现“独创性劳动”,即认定生成内容受版权保护。这与日本文化厅最新意见相近,强调“人类创作性贡献”的核心地位,“指令的具体性”是影响认定的因素之一。

刘文杰则指出,当前司法实践中对AI生成内容场景中用户“作者”身份的判定其实不同于传统著作权法理论。以北京互联网法院“文生图”判决为例,法院虽认可用户对AI生成图片的著作权,却要求该用户标注“所使用的由AI技术”,这实质上说明用户与著作权上的 “作者”并不完全等同。用户以提示词触发模型运行,最终表达由模型输出,此时用户贡献更接近于操作工具者或“制作者”,而非“创作者”。

而针对生成内容的权属问题,郝明英认为,无约定时应归属于人工智能的使用者,并强调权利义务和责任“应当相适应”。即人工智能生成内容如若构成作品,且权利归属于用户,发生侵权时,平台是否需要承担责任,需主要考虑其注意义务的边界。刘文杰也认为,如果人工智能生成内容受《著作权法》保护,就存在责任区分问题。只有承认生成内容相当程度上来自于平台运营的人工智能模型,才能要求平台承担责任。

国研新经济研究院创始院长朱克力则指出,经济学强调“成本—收益”逻辑。工业时代,创作者投入大量时间、智力等成本,所以其著作权受法律保护以便获得收益;但在人工智能时代,用户进行文字、图片等产出的投入成本明显降低。当输入几个词就能获得成果时,投入成本与工业时代相比微不足道。技术平台提供的应用大幅降低大家的投入成本,相关产品具有普惠性,需在此基础上探讨权益问题。

王磊也表示,要用发展的眼光看待《著作权法》相关问题。以服装类电商为例,文生图、图生视频等,已成为服装广告片的高效生产依托。同样一件衣服作为商品,可根据全球不同目标市场,快速生成不同肤色人种的试穿效果图。当法学界还在讨论版权问题时,国内外业界已大步前进。人工智能的发展和应用丰富了数字经济,在公共领域有益于产业发展。

针对AI在内容生成,尤其文艺创作等领域带来的巨大变革乃至冲击,姚欢庆则呼吁建立“人机创作双轨制”,以维护人类创作的主体性。他以摄影技术对绘画艺术的冲击为历史镜鉴,指出当AI能高效生成内容时,人类需寻找主体意义的创作动力。他强调对AI生成内容进行明确标注的意义,并建议通过市场机制赋予人类作品溢价,通过坚守人类主体性,避免人类在智能时代沦为技术附庸。

对此,朱克力从经济学和未来学结合的跨学科视角,表示AI技术能几乎无限生成符合市场需求的文本、图像甚至视频时,同质化内容的价值将越来越低。以目前国家政策提倡的“首发经济”为参照,未来相关创作的稀缺性将转向首发性、独创性、差异化。富有企业家精神、科学精神的人将比一般匠人更具创造力,“知识首位效应”仍为人类提供了充分的创新激励空间。

人工智能产业方兴未艾,法律应以审慎包容和鼓励发展为主基调

今年以来,中国AI产业应用正加速前进,为经济社会发展带来了新的增长动能。政府工作报告也继去年以来,再提推动“人工智能+”行动。与会专家共同表达了法律应以探索包容和鼓励发展为主基调的呼吁,以支持人工智能行业发展。

刘文杰指出,人工智能技术发展不断突破,对应用场景、人类生活和国际竞争的影响尚难预测,因此不宜急于立法。目前全国人大尚无《人工智能法》立法的明确时间表。当前,我国行政主管部门通过规章、规范性文件等多种方式对人工智能产业进行监管,可根据实际情况及时调整监管力度,其灵活性有利于产业发展,相较于通过一部法律解决所有问题的设想更切合实际。他认为应采用相对包容的监管方式,以提倡、促进为主,让市场发挥检验作用,在不侵害人的基本权利的前提下,鼓励产业发展。但对于可能对人的基本权利造成重大伤害风险的应用,必须审慎进行安全评估。

王磊提出两点对更适合现阶段AI监管政策的观察。一是“小步快跑”——就个人信息保护、生成式人工智能、深度合成伪造等具体问题,相关主管部门以敏捷治理方式给出监管要求,如十条到二十条左右的规定,具有很强针对性和灵活性。二是,“让子弹飞一会儿”——以共享经济为例,在讨论共享经济要不要立法的过程中,共享经济就已经不具备立法规制相应的规模了。这说明市场有自我纠偏能力,要兼顾考虑法律框架,也要充分发挥产业和市场的力量。

郝明英指出,应从两个角度看待“技术中立”。一是,人工智能技术发展本身是中立的,没有好与坏。因此对于平台而言,需考虑其责任和义务的有限边界。二是,更重要的在于我们要中立地去看待技术,不应对技术有偏见或者歧视。

国际竞争视角下,中国AI发展更要走出自身特色道路

从2023年底ChatGPT横空出世,到今年春节DeepSeek出圈,中美数字科技领域博弈愈加激烈。当前欧美正通过“数据主权”与“知识产权联盟”强化技术壁垒,AI版权等前沿问题已不仅是法律问题,更是战略问题。本次与会专家均认为,中国AI发展和治理需在发展与安全的动态平衡中探索渐进式解决方案,走出自身特色道路。

郝明英指出,法律是为了保障产业发展。面对未来,法律如何进行适应性调整,来保障和促进产业发展至关重要。无论人工智能、知识产权,都已成为国际竞争的抓手,甚至已经成为部分国家的武器。如此背景之下,既要从人类命运共同体角度考虑,也要有国家竞争的因素考量。在全球视角与国际竞争层面,AI发展领域须加快提出 “中国方案”、发出“中国声音”。

朱克力也表达了相似观点——基于国际博弈的背景,法律并非是要让步于国际竞争,但应该试图与国家发展进行共振、联动,成为推动国家发展的重要力量,才会更加符合时代需求。具体而言,法律应与国家发展战略紧密结合,通过合理的制度设计和法律规制,为科技创新和产业发展提供有力的法治保障。在人工智能领域,包括但不限于知识产权保护的法律,应关注技术的快速发展对社会经济的影响,及时调整和完善相关法律制度,以适应新的技术环境和社会需求。

会议主持人、走出去智库合伙人张颖也指出,欧盟《人工智能法案》立法过程前后历经数年,期间经历了相当多质疑。终于出台后,却在本次巴黎AI行动峰会后,决策层却决定近期不予执法,而是寻求促进欧盟AI技术和产业发展,相关立法完成后却陷入可能搁置的状态,令人十分唏嘘。

姚欢庆则表示,当前人工智能也对人类带来诸多挑战,其中包括巨大算力需求带来的能源消耗与环保问题。微软2023年总碳排放比2020年高30%左右,人工智能浪潮下气候目标或难以维系。包括中国在内,各国都应以人为本,从人类命运共同体的角度考虑人工智能的发展,共同探索负责任的前进道路。