在互联网与人工智能深度融合的背景下,多模态人工智能生成内容技术(AIGC)融合语言理解、图像处理和语音识别等科技,通过算力对文本、图像、音频及视频等不同类型数据特征进行提取、整合与建模,进而生成相应内容。一方面,这提高了内容生成的速度和丰富性,为多个领域带来创新动力;另一方面,它也会引发虚假信息和侵权内容批量化生成,如“AI换脸拟声”等。
在AIGC生成过程中,数据源与算法模型的复杂交织。信息在生成、传递与处理的各个环节频繁地进行转换以及跨平台整合,大幅增加了追溯难度。同时,对原创性标准的界定模糊,也使版权风险上升,加剧了治理复杂性。新形势下,有必要推进AIGC治理的科学性、协作性、实效性,以维护网络空间清朗。
第一,预防为先,强化规则与技术保障。
一方面,厘清AIGC监管框架。可实施针对“AI换脸拟声”的相关规则或制度,让从模型构建、数据获取、用户交互到应用场景等各个方面都能“有法可依”。通过明确责任边界与责任归属,提升政策与法律的科学性、前瞻性,规范当下问题,预防潜在风险,为内容治理奠定坚实基础。
另一方面,善用AI技术治理AI。通过融合多种技术构建高效的多模态联合检测模型,利用深度学习技术精准识别虚假、侵权和不良信息,提前识别和应对潜在的威胁,最大限度遏制不良信息生成和传播。技术与法律的结合,既赋予技术更强的治理能力,又确保技术在法律框架内有序发展,实现技术赋能、法律规制的良性互动。
第二,源头治理,规范内容生成全流程。
源头治理是内容治理的关键环节。网络平台应主动履行社会责任,从算法构思、数据收集和标注到模型训练、内容创作和发布进行严格监管。可引入区块链技术对AIGC的生成及传播进行全程记录,借助其不可篡改的特点确保内容来源和流通信息清晰可追溯;优化数据标注与质量控制体系,剔除虚假、错误或有偏见的数据;设置专门的“AI创作”标签,以帮助用户更容易识别出AI生成的内容;完善审核机制,配备审核团队,结合机器初筛与人工复审,提高审核效率和准确性。
通过规范内容生成的全流程,不仅可以减少虚假信息的产生,还能提升内容的质量和可信度。平台作为内容生成和传播的重要载体,有义务在算法设计和数据管理上严格把关,确保生成内容符合法律法规和社会道德标准。全流程的管理不仅是一种责任,更是对平台自身声誉和可持续发展的保障。
第三,多元协作,完善协同治理新机制。
多元化合作是应对复杂治理问题的有效途径。政府应建立人工智能生成内容企业的备案登记,以加强对企业资质、数据安全和算法透明度的监管。相关监管机构应构建跨部门协同监管机制,定期对AIGC平台实施评估和检查。同时,推动行业协会制定自律准则,引导企业自觉遵守,加强行业内部监督与管理。
政府、企业、行业协会等各方力量的协同合作,可以形成全方位、多层次的治理体系:政府监管统筹发展与安全,为行业的发展指明方向;企业的自我约束筑牢信息安全第一道屏障;行业团体所制定的自律准则以及国家间的协作,可以为有效治理提供更为广阔的视野和更丰富的资源。
此外,有必要激励公众积极参与对AIGC的监督。通过各种途径,增强公众对AIGC的理解和认识,提升数字素养;关注“数字弱势群体”,推动弥合“AI数字鸿沟”,增强公众识别虚假信息、侵权内容及有害信息的能力,提升对个人隐私保护和著作权保护的关注。在此基础上,还应为公众提供便捷的投诉、举报、反馈渠道与回应、救济服务,增强公众参与治理的获得感和信任感。
(作者为上海师范大学党委宣传部副部长)
https://www.shobserver.com/journal/article/share?id=423880