当前时间:20181119 | 星期一::

X

当前位置: 首页 - 资讯中心 - 行业资讯
武汉市生成式人工智能发展安全公约
发布时间:2025-10-30 17:10 字号:[ ]

       为规范全市范围内生成式人工智能的研发、部署、使用和管理等活动,确保健康、有序、可持续发展,特制定本公约。=


一、总则


      1.适用范围

      本公约适用于在本市行政区域内,从事生成式人工智能相关业务的企事业单位、科研机构、高校以及其他社会组织和个人。包括但不限于利用生成式人工智能进行内容创作(如文本、图像、音频、视频等)、智能决策辅助、自动化服务提供等活动的所有参与者。

      2.基本原则

     合法合规原则。严格遵守国家法律法规,落实国家互联网信息办公室发布的《生成式人工智能服务管理暂行办法》等各项行业管理规定,确保所有涉及生成式人工智能的行为均有法可依、有章可循。

      安全可靠原则。将安全作为生成式人工智能技术发展与应用的首要前提,确保技术全生命周期的可控性,防范技术失控带来的安全风险。

     伦理道德原则。遵循社会公认的伦理准则和道德规范,确保 生成式人工智能技术应用符合社会主义核心价值观,尊重人权、保护隐私、避免歧视,防止技术被用于不良目的或产生有害影响。

     数据合规原则。严格遵守数据保护法律法规,规范数据收集、存储、使用、共享等环节,保障数据安全与个人隐私。

     创新发展原则。鼓励生成式人工智能技术创新,推动技术与城市发展深度融合,提升城市治理现代化水平,促进经济社会高质量发展。 


二、安全与风险管理


      1.强化网络安全防护。研发和应用生成式人工智能系统应具备高可靠性和稳定性,具备故障检测、预警与自动修复能力,防止系统崩溃或异常运行导致的安全事故。采取先进的网络安全技术,防范网络攻击、数据泄露、恶意篡改等安全威胁,确保系统网络安全。

      2.确保算法合理性。具有舆论属性或者社会动员能力的深度合成服务提供者,应当按照《互联网信息服务算法推荐管理规定》履行备案和变更、注销备案手续。对生成式人工智能算法进行定期审查与评估,防止算法偏见、歧视、误导性输出等问题,确保算法公平、公正、透明。 


三、数据与隐私管理


    1.严防数据泄露。坚持“最小必要”与“全生命周期安全”原则,强化数据采集、传输、存储、处理、销毁等各环节的防护措施,完善访问控制与审计机制,防止个人信息及敏感数据泄露。

     2.防范污染滥用。严格核验训练与应用数据来源,防止引入带有恶意、偏见或错误的信息。建立数据污染检测与清理机制,保障训练数据的合法性、准确性与健康性,防止模型输出受污染影响。

     3.加强隐私保护。严格遵守个人信息保护法律法规,对涉及个人信息的数据进行特殊保护,采取匿名化、去标识化等技术手段,防止个人信息泄露与滥用。建立健全隐私投诉处理机制,保障数据主体的合法权益。


四、内容审核与知识产权保护


     1.内容生成规范性。利用生成式人工智能生成的内容应当符合社会主义核心价值观和社会公序良俗,不得包含违法、淫秽、暴力、恐怖、煽动仇恨等不良信息。建立完善的内容过滤机制,对生成的内容进行实时监测和筛选,维护真实、可信、清朗的网络信息环境。引导用户正确使用生成式人工智能工具,培养健康的创作习惯和文化氛围。

     2.版权归属明确性。尊重生成内容的知识产权,明确生成内容的知识产权归属,鼓励对原创性生成内容进行版权登记与保护。加强对生成式人工智能技术应用中知识产权的管理,防止侵犯他人知识产权,如未经授权使用受版权保护的数据进行训练等行为。


五、构建共治生态


     1.提升公众人工智能素养。在追求技术突破与市场发展的同时,同步投入安全建设与风险防控。推动人工智能基础知识与安全意识的公众普及,提升社会整体对生成式人工智能的理解与理性使用能力。

     2.强化合作与交流。积极参与国内外人工智能安全治理合作与标准体系建设,推动形成透明、包容、公正的全球治理框架,助力生成式人工智能朝着更加安全、可靠、可持续的方向发展。


六、附则


     1.公约修订。本公约将根据国家法律法规调整、技术发展趋势以及本市生成式人工智能技术应用实际情况,适时进行修订完善。

     2.生效日期。本公约自发布之日起生效。


相关新闻