通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  少将

注册:2015-11-2608
跳转到指定楼层
1#
发表于 2024-9-23 15:13:30 |只看该作者 |倒序浏览
张云霞 何菁钦 天翼智库

大模型在政府机构的应用,将对其服务体验、治理秩序与决策逻辑产生影响,全球政府部门相继对大模型在政府部门的应用发布了相应的应用指南,以指导政府部门合理使用大模型等人工智能的应用。截至目前,全球已有10余个国家/州/城市,包括英国、加拿大、澳大利亚,美国的加州、圣何塞市、西雅图等国家/州/城市发布了政府部门应用生成式人工智能的政策指南或道德框架,并对公务人员应用大模型开展工作提出了首要原则、潜在风险、应用场景(建议用例与禁止用例)等。通过研究已发布的政策指南,对不同国家/州/城市应用大模型的原则、思路以及指导内容进行分析研究,借此洞察政府生成式AI应用的未来展望与思考。

01
首要原则:应用生成式AI安全需求大于价值诉求

政府机构均认为生成式AI的使用需要谨小慎微。通过分析可以发现,隐私性、准确性、适当性和安全性是政策指南中出现频率最高的使用原则。其中,“隐私性”强调个人数据和敏感信息的保护;“准确性”强调数据来源的可靠性和内容输出的有效性;“适当性”强调程序和实质性的公平义务,符合人权,避免偏见和歧视等内容;“安全性”则既包括数字安全也包括社会环境、基础设施的安全。

此外,问责制、透明度和可审计性、可解释和可判断、公共目的和社会效益也被多个政府机构提到,“问责制”强调在低风险情况下使用公开可用的生成式AI平台,保证人类是政府流程中的最终决策者;“透明度和可审计性”主张透明行事并创建人工智能过程记录以建立信任并促进集体学习;“可解释和可判断”要求知晓系统如何做出决策,并在需要时能够解释决策的“原因”及其对用户的意义或背景;“公共目的和社会效益”则强调使用人工智能的目的在于支持国家为居民提供更好、更公平的服务和成果。

02
关注风险:潜在的信息安全及决策影响风险

通过研究分析可以发现,生成式AI风险在政府部门中应用的两个最大的风险分别为信息安全风险和决策影响风险,前者主要涉及隐私敏感数据的泄露,后者指生成式AI输出结果的不确定性与可解释性问题将为政府决策带来干扰。

从研究的目标政府部门发布的政策指南来看,其对“信息安全风险”的定义主要指的是个人身份信息、敏感记录或商业机密信息等输入到生成式AI工具后被释放给其他无关受众,成为公开信息;一些生成式AI工具提供商可能会检查输入数据或使用这些数据来进一步训练他们的模型,这可能会导致隐私和安全漏洞。由此可见,生成式AI在政府部门内部的信息安全风险将不再只是外部的挟持、窃取以及攻击等风险,还有来自内部的“输入”风险,政府部门工作人员对如何辨别什么样的信息可以输入生成式AI工具显得至关重要。

此外,各地政策指南对“决策影响风险”的定义包括输出结果用于决策、任务或服务时产生的潜在危害,比如由于信息来源的不可信,生成式AI工具输出的答案可能并不准确,并作为虚假信息进一步传播;因为工作原理的局限,生成式AI工具在产出结果时可能存在偏见甚至放大偏见,其结果可能引起道德、伦理或法律风险;鉴于生成式AI工具提供误导信息或偏见的可能,这些工具的使用也极有可能影响决策者的判断力和创造力,并产生额外的社会成本。此外,生成式AI还可能被恶意滥用,从而对政府机构的完整性和安全性构成风险。

03
应用场景:在基本逻辑与底线上选择性应用

由于智能技术应用的不断发展,将衍生许多未知的风险,特别是当智能应用由一种内容与服务的“传播媒介”进化为“生产主体”的时候,此时使用则需要格外谨慎。因此,国外政府机构针对生成式AI在行政系统内部的用例场景做了详细的指导与要求。从政策指南的研究情况来看,政府机构使用生成式AI的基本逻辑与底线是“可以借助AI完成简单的非官方文本输出,但尽量避免产生公开性、决策性、唯一性、创造性的成果”。目前,在政府侧具有普遍共识的用例场景包括查询各类信息数据,总结、压缩、摘要信息或知识点,起草文件或项目计划,生成简明语言的图文内容,辅助学习或研究,创建演示文稿等。

生成式AI作为一种新型智能应用,各国政府机构对其的认知、理解以及需求存在一定差异,由此导致其对应用场景的选择也将存在偏差或分歧。比如英国和华盛顿将“开发代码”纳入生成式AI的建议用例场景,但圣何塞市将其列为禁止用例,这主要是考虑到开发代码的时效性及版权问题,以规避由此带来的运行风险与法律风险。此外,华盛顿和圣何塞市将帮助生成图像、音频和视频内容纳入生成式AI的建议用例场景,波士顿将音频编码/编程及图像、音频和视频均纳入建议用例场景,但不同的是,圣何塞市单独将创造声音或其他音频列为禁止用例,认为创造/复制人的声音可能存在潜在的法律问题。

研究分析发现,在各政府机构的禁止用例清单上,英国着重提出“勿用于撰写消息和向他人总结事实”及“未经所有者同意勿输入数据进行分析”,十分重视生成式AI产出成果在公开性和创造性上可能存在的风险。此外,圣何塞市还将评估和决策及语言翻译也列为禁止用例,避免AI产出可能产生的决策风险。

相对于其他国家/城市,圣何塞市在政策指南中还根据信息的敏感度、识别性、涉密性及产出内容的实际效用和影响力,将不同用例场景的风险等级分为中等风险、高风险及禁止提供的风险,并对应列举了多个中等风险用例、高风险用例及禁止用例,这对指导政府机构快速熟练运用生成式AI开展工作,和快速提升公务人员的AI素养具有重要的积极效应。

04
治理机制:集中在治理机构设置、政策法规制定及版权保护

从全球城市政府机构生成式AI应用指南的调研情况来看,在治理机构设置、政策法规制定以及版权保护三个方面均已初步成型或得到较为重要的关注。在治理机构设置方面,宾夕法尼亚州、俄亥俄州、堪萨斯州、华盛顿、西雅图、圣何塞等州/市均设立了生成式人工智能管理委员会。其职责主要在于就各机构中生成式AI的设计、开发、采购和部署,向行政办公室提出建议;根据评估技术偏差和安全性的审查程序,就机构使用生成式AI技术的请求提出建议;牵头确定实施生成式AI的最有效用例;评估生成式AI使用的可用资源的可获取性、局限性和潜在的历史偏差;提供内部和外部政策反馈的机制;平衡使用生成式AI的公共利益和潜在风险;聘请私营部门和领先教育机构的生成式AI专家,根据需要就短期和长期研究目标、行业趋势和全生态系统最佳实践提供建议;接受不断发展的生成式AI技术领域的更新和培训等。

在政策法规方面,圣何塞市、西雅图及华盛顿均强调对生成式AI的所有使用均需遵守《公共记录法》,因为任何与市政府工作有关的对话都是公共记录,并且必须遵守市政府的保留规定。而生成式AI工具可能会创建必须保留的公共记录,相关的任何提示、输出或其他信息都可能被公开发布。由于使用情况取决于公共记录请求,有些国家/城市对使用用户账号做了要求。比如圣何塞市要求数字隐私办公室应使用城市电子邮件地址(digitalprivacy@sanjoseca.gov),为其所有使用生成式AI的角色创建一个共享账户,并确保政府工作人员都使用唯一的服务密码。

在版权引用方面,圣何塞市、华盛顿、西雅图及俄亥俄州在指南中就版权问题做了单独阐释。圣何塞市要求当最终版本中使用的大部分内容来自生成式AI时,用户必须标明引用自生成式AI,任何作为事实的陈述都必须引用可信的来源,而不是人工智能。西雅图认为生成式AI系统生成的内容包含受版权保护的内容材料,人工智能系统可以使用来自互联网的数据(文字、图像等)进行“训练”,而不用考虑版权或许可条款。华盛顿强调以国家官方身份使用人工智能生成内容应该清楚地标明,并提供审查和编辑过程的详细信息(材料如何审查、编辑以及由谁审查、编辑)。俄亥俄州认为国家拥有的所有涉及生成人工智能的受版权保护的作品必须按照美国版权局对包含人工智能生成材料的作品的要求随附注释,注释至少应包括所使用的生成式AI技术以及如何使用该技术来创作作品的描述。

05
政府生成式AI应用的未来展望与思考

政府机构作为为公共利益服务的主体,稳定、公平、透明、普惠等作为其服务的核心特征,与生成式AI由数据、算法以及可能存在的幻觉所构成的技术特征,在日常运行与应用过程中必然将产生不可避免的冲突。因此,结合当前全球多个国家/州/城市政府部门的生成式AI应用政策指南要求以及数字政府的发展趋势,展望未来政府生成式AI的应用路径,有三大方向值得关注:

一是政府生成式AI应用将走向“大模型+小模型”的混合应用模式。当前政府数据资源开放有限,结合大模型的强大能力与小模型灵活性强、成本效益高特点,有助于政府更高效、安全地利用生成式AI技术。同时对小模型的训练数据而言,仅仅依靠政府数据资源可能并不能发挥其应用的价值,对社会常识、行政权力逻辑、公序良俗以及经验性知识等进行数据微调,实现人工智能与行政系统的“价值对齐”,才可能真正成为可用的政府大模型。

二是由于不同阶段、不同目的与不同需求,政府机构对生成式AI的用例场景选择可能存在“个性化差异”。这不仅存在于单个政府系统内部,也存在不同区域的政府机构之间,而由于对不同场景的应用选择差异,将最终影响AI时代的公共服务、社会治理与政府决策质量,从而影响社会秩序与民生发展。

三是如何巩固AI时代公众知情权成为重要议题。由于生成式AI介入政府运行的趋势无可阻挡,特别是在公文写作、政策制定、公众回应等方面,由此带来的问题是,为增强政府运行的透明度,未来政府机构应采用何种方式对生成式AI参与生成的内容进行明确与恰当的标注,从而巩固AI时代的公众知情权。

举报本楼

本帖有 4 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-12-29 10:57 , Processed in 0.206220 second(s), 17 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部