防范人工智能风险要有安全阀

发布时间:2024-12-29 21:04:02 来源: sp20241229

  党的二十届三中全会审议通过的《中共中央关于进一步全面深化改革、推进中国式现代化的决定》强调,建立人工智能安全监管制度。作为一种战略性新兴技术,人工智能已深度融入人们的生产生活,对于工作效率的提升大有裨益,还不断催生出新产业、新业态、新商业模式,持续为经济社会发展注入新动能。作为人工智能的一个重要组成部分,生成式人工智能技术的飞速发展,涵盖虚拟现实、医疗保健、创意产业等多个领域,为各行各业带来更多创新与价值。不过,当前也要密切注意生成式人工智能可能引发的数据安全、信息误导等风险挑战,坚持发展与安全并重。

  所谓生成式人工智能技术(AIGC),是指基于算法、模型、规则等,生成文本、声音、图片、视频等内容的新一代人工智能技术。算力、算法、数据是这种技术发展的三大核心要素,这几个要素的综合作用,使得其具备自生成模式,能实现闭环式学习体系的构建,通过利用海量数据信息,自主学习要素,进而生成原创性的专业知识内容或产品并可以不断更新,进行自我升级迭代。基于这些特点,越来越多的行业正将其作为提高生产力水平的新要素,创造出指数级的价值,并催生了大量的产业应用,教育、娱乐、商业等领域均有所及。2022年末,美国OpenAI公司推出的ChatGPT标志着这一技术在文本生成领域取得显著进展。世界知识产权组织(WIPO)不久前发布的《生成式人工智能专利态势报告》显示,2014年到2023年,中国生成式人工智能专利申请量超3.8万件,居世界第一位,是第二名美国的6倍。

  生成式人工智能是把双刃剑,在加强技术研发和创新的同时,需努力提高其安全性和可控性,有效识别潜在风险和漏洞并形成应对策略。2023年8月15日正式施行的《生成式人工智能服务管理暂行办法》指出,有关主管部门依据职责对生成式人工智能服务开展监督检查,提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。因此,未来要进一步推动生成式人工智能的发展,应从网络安全、数据安全、个人信息保护等层面入手,采取包容审慎的态度,从技术、伦理、法律等多方面设置“安全阀门”,防范生成式人工智能风险。

  一方面,完善相关法律法规的有效界定,合理有效监管。加快立法进程,针对数据、内容安全、知识产权等生成式人工智能发展的关键问题,进行分类管理、分类立法,通过政策立法对生成式人工智能的设计、演进进行有效引导、统筹管理。明确监管底线,制定相应技术使用规则和行业规范,强化对生成式人工智能企业、平台和使用该技术高校各主体等失范行为的监管,及时发现处理违规行为。将“传统事后监管模式”转为“事前预防评估模式”和“事中控制模式”,制定事前评估、风险预警和事中控制规范,有效减少安全事件的发生、降低安全事件对企业、高校等造成的负面影响。加快制定相应的技术使用规则和应急处理措施,强化对应用生成式人工智能的企业、平台的监管和约束。

  另一方面,持续增强数据安全。建立数据全生命周期监督管理,包括数据采集输入阶段的虚假、错误信息入库管控,数据处理加工阶段的数据标注管控监督,数据输出阶段(二次采集输入阶段)的数据真实性检测验真等。针对医疗、金融、电商、高校等重点领域,通过技术手段保障数据安全。及时发现和处理数据方面的违规行为,保障数据及隐私安全,防止滥用数据造成的损失,确保其符合法律法规和社会公德。(经济日报 谭泽宇) 【编辑:房家梁】