发布时间:2024-12-28 03:59:09 来源: sp20241228
今年以来,以ChatGPT为代表的生成式人工智能广受关注,其对经济发展、社会进步、公益事业及科学研究起到积极的推动作用,但同时也带来包括技术内在风险引发安全隐患、人机关系变化深化科学伦理失范、技术跃进引发人类社会发展等挑战。
11月9日,2023年世界互联网大会正式发布《发展负责任的生成式人工智能研究报告及共识文件》(以下简称《报告》)。作为大会的重要成果,《报告》由世界互联网大会人工智能工作组编写。工作组成立于今年8月,成员来自全球40余家产业链企业和高端智库、国际组织、高校等,致力于推动发展负责任的人工智能。
《报告》具有鲜明可执行性
《报告》提出,应正确认识生成式人工智能所蕴含的巨大潜力和可能风险,遵循统筹发展和安全、平衡创新与伦理、均衡效益与风险的理念,推动生成式人工智能负责任地发展。一方面,应积极推动创新、可持续、包容开放的发展,提升生成式人工智能算力高效、数据高质、算法创新、人才多元、生态开放的能力;另一方面,以高度负责任的态度发展可靠可控、透明可释、数据保护、多元包容、明确责任、价值对齐的生成式人工智能。
“工作组总结提炼了发展负责任的生成式人工智能十条共识,还搜集了全球企业将生成式人工智能应用于交通、金融、教育、医疗等14个领域的57个实践案例。”世界互联网大会常务副秘书长梁昊在“人工智能赋能产业发展论坛”上介绍。
生成式人工智能展现出强大的生成创造能力,在文本、代码、图像、音视频等方面的理解与生成取得突破性进展,开始涌现出“智慧”。速度之快、赋能范围之广、影响程度之深前所未有。以负责任的态度推动生成式人工智能发展不仅十分必要,也愈发紧迫。
据介绍,相比同期其他类型文件,《报告》提出具有极强可操作性的共识意见,包括明晰归责体系、构建追溯机制、探索治理沙盒等创新友好型治理体系。其关于推动生成式人工智能更好地理解人类意图、遵循人类指令并符合人类伦理道德的共识,从探索价值对齐研究和提升价值对齐技术两个方面入手,在可操作性与可实现性方面具有鲜明特点。
不同主体承担应有责任
“人工智能技术能力越强,潜在隐藏的风险可能越大。”中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅谈到,从幻觉、数据偏见等内生风险,到错误使用、恶意使用造成的风险,“最大的风险可能来自对人工智能的能力将达到何种水平的不确定性,这带来对风险及连带的风险控制体系的不确定性。”
“我们强调公平性,去除偏见,也特别强调追责。”思科大中华区副总裁卜宪录介绍了相关经验,在从开发、使用到退出的整个周期,技术必须是可以回溯、可以追责的,同时,生成式人工智能需要产生一个可以复制的可靠结果。
“发展负责任的生成式人工智能,需要产业链各个环节紧密配合,践行共商、共建、共治、共享理念,不同主体各自承担应有责任。”中国信息通信研究院人工智能创新中心负责人、世界互联网大会人工智能工作组副组长魏凯表示。
在印象笔记董事长唐毅看来,面对新技术带来的爆发式增长与乱象,从业者要在充分理解技术发展的成熟度、市场需求、商业模式的可行性及法律约束等因素的基础上,去寻求新技术的落地突破,进而推动产业变革。
“从气候变化到全民教育、自然灾害管理、性别平等、智能出行、智慧城市,这些场景肯定存在人工智能的身影。人工智能等数字解决方案可以直接惠及70%的联合国可持续发展目标。”国际电信联盟标准化局战略部主任、AI向善峰会负责人弗里德里克·维尔纳把目光对准人工智能对可持续发展的作用,但他同时强调,自动化导致的数据偏见、歧视,对道德、安全、隐私的担忧,以及对进一步加深数字鸿沟的可能等令人无法忽视。
“人工智能太重要了,不能只留给专家们。”弗里德里克呼吁,从产业界到政府、学术界、非政府组织、民间社会,大家要尽可能多地发出声音。
(科技日报浙江乌镇11月9日电)
(责编:罗知之、杨迪)