人工智能工具如何在政策制定中发挥作用
创始人
2025-12-18 21:47:16
0

2025年5月15日,由兰德公司、史汀生中心和托尼·布莱尔全球变革研究所共同组织的“人工智能辅助政策制定项目”(AIPP)研讨会在华盛顿特区举办。会议旨在回答一个核心问题:人工智能工具如何在政策制定的整个生命周期中发挥作用,并帮助应对日益复杂的公共挑战?研究结果揭示了人工智能工具在起草文案、数据分析、简化语言等方面的巨大潜力,但也指出其在推理、长期规划和伦理信任方面的局限性。启元洞见编译整理了其中的核心内容,供读者参考。

2025年5月15日,人工智能辅助政策制定项目(AIPP)在华盛顿特区举办了为期一天的研讨会,重点讨论人工智能工具在政策制定生命周期各个方面的作用。此次活动由兰德公司(RAND)、史汀生中心(Stimson Center)和托尼·布莱尔全球变革研究所(Tony Blair Institute for Global Change)共同组织,汇集了来自政策研究、政策制定和技术等不同背景的56名与会者。

一、会议一:定义人工智能支持的政策

会议一通过梳理政策制定工作流程,界定了人工智能辅助政策制定的范畴。

(一)政策制定生命周期中还有哪些其他组成部分(或任务类别)?

早期政策活动,例如监测媒体动态、收集官员声明、识别新出现的问题,都有助于在正式决策开始前,塑造政策议程。与会者讨论了与利益相关方互动相关的公众舆论调查、情感追踪等任务,以及梳理关键参与者、提供培训、准备证词以及在研究后征集反馈等其他任务。在分析类任务中,重点提到了成本效益分析、反事实分析、预算影响评分和历史分析。此外,政策制定生命周期中的其他环节包括建立联盟、就新政策开展宣传和教育、通过议程设置来确定需要政策响应的议题、以特定受众易于理解的格式发布研究成果和报告等等。与会者也指出,政策制定过程通常是非线性且反复迭代的,这可能很难用线性的工作流程来概括。

(二)人工智能系统目前能够承担哪些决策任务?

目前人工智能工具已被用于起草备忘录和立法文本、总结听证会和研究文件、分析利益相关方的立场,以及简化复杂或过于法律化的语言。人工智能还可以在不同格式间进行转换,例如将要点转换为立法文本,并生成格式化的内容。大型语言模型可以支持构思和头脑风暴,进行高频次的试错,并综合处理大量的知识。一些系统能够整合多场听证会上的发言,并模拟回应或反建议,以使立法获得更广泛的接受。人工智能还可以进行知识管理。然而,人工智能在推理质量、优先次序、识别薄弱证据、长期规划、决策以及隐性知识以下方面仍存在局限性。人工智能在说服力方面具有优势,但也容易出现认知偏差,例如倾向于根据信息的数量而非相关性来判断其重要性,这可能会压制少数派的声音。此外,人工智能无法预测决策的长期后果,也无法根据具体情境做出决策。

(三)哪些用户可以利用人工智能工具进行决策?

可能将人工智能工具用于政策制定的用户群体包括立法助理、监管人员、政策研究员、初创企业创始人、倡导团体和政治候选人。未来人工智能的主要用户将是工作人员和辅助人员,而不是决策者本人,因为他们需要审阅和处理大量文本及信息。与会者还探讨了小型办公室或社区组织等资源不足的机构如何利用人工智能,来获取那些以往只有资金雄厚的机构才能使用的工具和见解。对于许多这类用户来说,人工智能被视为提高生产力的工具,而非取代人力的工具。

(四)不同角色会遇到哪些适用机遇和挑战?

与会者讨论了许多机遇,包括让日常或格式化任务实现自动化、加快起草和分析工作、促成新的利益相关方参与方式、让高质量分析得以普及,并可能加速利益相关方之间的反馈循环,从而更快地实施政策。一些与会者讨论了人工智能如何实现个性化,并通过找出共识立场或生成定制化、有说服力的内容来帮助谈判。不过,面向政策领域的与会者也指出了一些挑战,包括适用规则不明确、隐私和法律方面的顾虑、对产出结果的信任度不一,以及需要对人工智能模型进行长期维护和校准。此外,开发政府专用工具对公司来说缺乏足够的经济吸引力,因为政府预算有限,而且相比商业应用,其潜在客户群要小得多,难以实现规模化盈利。

如果没有重新培训或机构支持,将人工智能整合到现有工作流程中会非常复杂,而且其在公共和私营部门的普及情况也大相径庭。

二、会议二:人工智能的核心能力和系统要求

会议二探讨了人工智能在政策制定中的现有和潜在应用,重点讨论了工具能力、近期自动化机会以及对数据和信息流的考量。

(一)目前在政策制定或相关工作流程中,使用了哪些人工智能工具?优缺点是什么?

与会者们讨论了人工智能工具如何日益融入政策制定工作流程,为从合规到研究规划的各类任务提供支持。比如,人工智能可用于应对出口管制、识别许可代码,并作为定制化沟通的“传声筒”。内置在常用应用程序中的人工智能工具,其普及率远高于那些独立存在的工具,集成式人工智能工具具有优势。通用大型语言模型,能够辅助进行背景研究、构建文献综述和规划项目工作流程。然而,由于隐私限制,输入信息往往缺乏上下文,用户对于幻觉(hallucinations)造成的错误也依然保持谨慎。

在政策研究环境中,通用人工智能工具能够支持沟通、撰写报告和网站开发等等,尤其是在缺乏专用工具的情况下。在慈善领域,由于其感知价值较低且难以捕捉隐性知识,人工智能的采纳受到了限制。例如,政策制定者的公开立场往往不能完全代表他们的实际信念,而他们的行动也常常受到其心照不宣的信念所影响。与会者讨论了项目经理如何利用人工智能进行协作式知识创造和评估数据需求。一位与会者提到,英国等国政府使用诸如Consult和Redbox等工具来进行公众参与和立法摘要。尽管有如此多的应用,与会者仍指出其在可靠性、有效性、数据获取、工具功能明确性以及使用授权方面的局限性。

(二)在工作流程中,哪些任务适合由人工智能来自动化?

与会者指出了政策制定工作流程中几项特别适合人工智能自动化的任务。其中一个例子是对选民需求进行分类和处理。人工智能可以通过监测背景变化、帮助追踪新问题及长期存在的问题来支持这一过程。与会者们讨论了在某些场景下,聊天机器人如何被探索用于替代传统的选民通信,这也引发了一个问题:人工智能是否能以人类员工所应有的判断力和理解力做出回应。

那些被描述为更具确定性和格式化的任务,比如根据数据生成基础可视化图表,是很有希望实现自动化的目标。这类任务的自动化能让员工将更少的时间花在初稿上,而将更多时间用于优化和解读。

(三)如何设计人工智能系统,才能恰当地权衡和整合人工生成数据和合成数据?

与会者指出了人工生成数据(通常杂乱无章、缺乏结构)和合成数据(更整洁但可能不完全可信)之间的权衡。

与会者还讨论了用于训练人工智能模型的数据人口统计学特征会如何影响模型输出:这些数据是否能代表选民群体,或者是否过度或不足代表了某些群体?这些差异引出了一个关键问题:在人工智能辅助的决策中,到底代表了谁的视角?

调查和监测系统或许可以作为支持人工智能辅助决策的一种模式。这类系统收集大规模反馈,通常用于监测对时事的反应。与会者强调了在这些系统中进行人工校准的重要性,并指出即使是设计精良的模型,也需要人工监督来确保数据得到正确的解读。

(四)理想情况下,系统应该在什么样的信息环境中工作,并能跨环境运行?

与会者反思了跨组织、利益相关方和个人之间的数据访问和共享问题。讨论了人工智能系统需要在数据稀缺、数据收集成本高昂以及现有数据集存在缺口的环境中运行,强调从当地社区和专家那里收集数据所面临的挑战。他们指出,自动化可以协助完成低层次的外联任务,并生成正确的问题。与会者指出了有效利用人工智能的障碍,例如数据集来源中可能存在的偏见,以及在与非在线社区互动时作用有限。

(五)人工智能辅助政策制定还需要哪些新的能力?

现有的人工智能系统无法整合隐性知识或获取非公开信息,因此必须设计方法来弥补这些局限性。人工智能在海量文本中搜索特定信息(例如查找先例)具有必要性。建议开发人工智能客户关系管理(CRM)系统,为议员办公室进行个性化定制,帮助工作人员追踪议员之间的关系。

政策制定者需要培养相关技能,尤其是在有效提示、确定适当用例以及管理偏见和幻觉等方面。关于人工智能使用许可的政策尚不明确,制定明确的人工智能使用政策或许会有所帮助,特别是对于国会工作人员而言。

三、会议三:实施考量

会议三重点讨论了人工智能政策工具的实施考量,研究了如何在应对潜在风险和意外后果的同时,确保其可信度和符合民主规范。

(一)我们如何确保人工智能政策工具值得信赖、符合民主规范并被大众接受?

对人工智能政策工具的信任取决于其透明度、问责制以及是否符合最终用户的需求。工具应清晰地展示其得出结论的过程,包括推理逻辑和数据来源,以便政策制定者能够理解输出结果。

由于各州之间以及联邦与州之间的法律法规差异很大,人工智能工具必须足够灵活,以反映这种多样性。与政策制定者、利益相关方和受影响的社区共同设计这些工具至关重要,这能确保工具反映现实世界的约束和价值观。人工智能工具可以支持向更具迭代性、以成果为导向的立法模式转变,从而使立法能够根据实施后的反馈和指标更快地演进。

一些与会者认为,市场力量足以推动可信赖的工具取代那些可信度较低的工具。而另一些人则反驳道,可能需要政策干预来弥补消费者保护和集体问责方面的不足。

(二)将人工智能深度整合进政策制定流程,最大的潜在风险或意外后果是什么?如何主动解决这些担忧?

过度授权或会导致人的能动性被削弱。过度依赖人工智能可能会削弱民主治理所必需的批判性思维和判断能力,使责任追溯变得更加困难,并减少新颖见解的产生。需要建立有效的反馈循环,以确保模型始终立足于现实世界的具体情况。政策制定环境中的错误后果可能比其他环境更严重,因此在高风险场景下部署的模型,需要达到比低风险场景更高的性能水平。此外,人工智能可能会用低价值内容淹没政策制定过程,使得识别和采纳高质量见解变得更加困难。如果没有过滤或信息优先排序的机制,人工智能可能会增加决策空间的“噪音”。建议引入“摩擦”,例如增加验证成本,以限制公共反馈流程中的垃圾信息或自动化提交。与会者还探讨了对抗性输入的风险,个人或团体可能会故意操纵在线内容,以影响未来的人工智能输出,从而可能扭曲与政策相关的知识体系。在政策制定的某些方面,减少人工智能工具的整合反而会更好。

(三)如何构建人工智能系统,才能在不降低信任度或实用性的前提下,有效地向政策制定者传达不确定性程度?

人工智能系统传达不确定性在技术上具有挑战性,特别是在结构化预测任务之外。当模型持续做出具体预测时,校准或许是可行的,但许多政策制定应用更具开放性。为了提高决策过程的透明度,有必要明确标示哪些输出由人工智能生成,哪些来自人类贡献者。此外,对人工智能的信任最终可能更多地取决于其过往记录,而非最初的印象。

(四)大规模采纳会带来什么影响?

人工智能工具的大规模采纳,可能会改变政策制定中现有的瓶颈,并增加产出、文档和复杂性,从而促使政府进行相应调整。与会者讨论了参考多个模型以及建立更强大的评估生态系统的必要性。与会者提出包括认知能力下降、判断力丧失、情感依赖、由于人工智能的说服能力而加剧的两极分化,以及日益增长的能源需求等担忧。此外,强调潜在的不平等获取问题,即更富裕的机构可能更有能力负担高质量的数据和模型。

(五)对于将执行政策制定任务的人工智能系统,需要防范哪些关键的失败模式?

一个重要的担忧是信息超载,人工智能工具可以生成大量内容,而这些内容可能会掩盖有价值或高质量的输入。模型可能内嵌了意识形态假设,不加批判地接受人工智能输出是一种潜在的失败模式。与会者特别强调“奉承”的风险,即模型会强化用户的信念,而不是呈现多元化的观点。人工智能工具的采纳应由具体的政策需求驱动而不是被炒作所左右,不应在没有明确目的的情况下部署。此外,建议开发具有领域特定“护栏”的专用人工智能系统,因为通用模型可能缺乏必要的上下文或保障措施。最后,保持质量控制并确保政策制定始终以公民为中心至关重要。

四、会议四:为人工智能辅助政策制定构建技术路线图

会议四探讨了人工智能在政策制定中的技术路线图,将现有的人工智能模型工具与具体的政策应用进行匹配。

(一)市场图谱:目前哪些人工智能工具可支持端到端的政策制定?

与会者概述了一个日益成熟的人工智能工具生态系统,这些工具支持政策制定的不同阶段。OpenAI、Claude、Gemini和Perplexity等通用l模型目前主要用于研究和起草工作。专用工具包括用于文献综述的Elicit、用于法律工作流程的Harvey,以及用于结构化政策整合的Policy Synth。像Granola和Grain这类工具可协助记录和总结会议内容,而微软Copilot则因其与现有工作流程的无缝集成而被广泛采用。特定领域的举措包括带有XML注释的法律、确定性语言(如Catala)和实验性工具(如政策模拟器)。与会者表示,很少有工具能提供完整的端到端支持,但关键组件已经就位。

(二)哪些是最需要首先开发的重点领域和能力?

质量保证是一个关键焦点,包括提升模型输出的可靠性、精确度和准确性。与会者强调“品味”的重要性,即系统识别有用信息来源和采用适合政策制定语境的写作风格的能力。人工智能工具应能让人们轻松追溯到支持结论的论据和证据。与会者还讨论了如何促使和训练模型保持透明,包括评估偏见的必要性。为了鼓励人工智能的采纳,各机构必须授权、培训并推广员工使用人工智能工具。此外,可靠的用户界面(UI)和用户体验(UX)非常重要,这能让员工更容易学会有效使用这些工具。

(三)你希望看到哪些工具被开发或采纳?

与会者表示有兴趣为不同类型的用户建立定制化工作流程,以生成政策摘要、谈话要点和面向特定受众的输出内容。他们特别强调能将会议记录转换为关系图、客户关系管理条目等结构化格式工具,以及将复杂规则翻译成通俗易懂语言工具的重要性。与会者还提出了用于识别参与者之间政策一致性的自动化分析工具,以及自动事实核查系统。他们还强调了能增强公众参与度和透明度工具的重要性,并举例提到了政策摘要平台和模拟工具(如Concordia)。

(四)利益相关方如何开始部署或测试这些工具?

将人工智能系统部署到政策制定环境中面临结构性挑战,包括公司缺乏构建和维护特定政策工具的经济激励。面向政府市场或智库的人工智能产品市场规模小,通常被认为不具经济吸引力。与会者建议,改造通用工具供政府使用可能比构建定制解决方案更可行。为政府开发定制软件被认为是资源密集型的工作。但也有人乐观地认为,随着软件开发的持续进步,成本可能会随时间降低,从而使开发更具针对性的工具变得更可行。此外,有必要建立可行的商业模式来证明开发这些工具的合理性,例如通过多年期合同、激励机制设计以及供应商和机构之间建立结构化关系。总而言之,仅靠传统的市场力量可能不足以支持政策制定者所需的人工智能工具,可能需要其他的开发和部署模式。

(五)近期、中期和长期的成功衡量标准是什么?谁来验证成功?

部分与会者认为,近期的成功指标是更快地完成常规工作流程、为员工节省时间,以及在同行经验的推动下更广泛地采纳人工智能工具。其他与会者认为,成功的标志是增加试验,特别是针对低风险决策的试验。从中期来看,成功将包括减少利益相关方之间的迭代循环、提高预测提案反应的能力,以及在危机期间增强响应能力。未来的人工智能工具可能将支持更广泛地探索政策选项空间,并更好地将法律、经济和公平因素整合到分析中。长期的成功衡量标准则侧重于机构和社会成果,如改善审议、加强谈判以及能带来更好社会结果的政策。与会者强调了关键目标,例如提高公众参与度、减少盲点和增强对机构的信任。与会者讨论了由谁以及如何来验证成功。他们建议在机构内部追踪运营目标,如节省时间或加快政策文件的编制。对于更广泛的社会影响,如提高对机构的信任或改善政策成果,可能需要通过民意调查或宏观研究来验证。

五、结论

这场技术专家与政策专家之间的对话,探讨了将人工智能融入民主治理的巨大前景和复杂挑战。随着政策制定者努力跟上日益复杂的世界和快速演变的全球挑战,传统的政策制定流程在应对需要实时分析和整合海量信息的问题时,正变得力不从心。与会者讨论了人工智能工具如何能弥补这一差距,以及它们目前是如何为政策制定工作流程做出有意义的贡献。

本次研讨会中有几个反复出现的主题:首先,在政策制定环境中有效部署人工智能存在结构性障碍,包括不明确的人工智能使用政策、隐私顾虑以及机构支持的缺失。其次,需界定人工智能自动化和人类监督之间的恰当界限。虽然存在许多适合自动化的任务,如起草、整合选民反馈、生成面向特定受众的输出内容等,但过度依赖人工智能可能会削弱对人工智能产出和民主问责制的批判性思考。在政策制定中持续需要人类判断力,应在人与人工智能之间建立有效反馈循环。最后,如何确保人工智能工具保持透明和可信。需要有透明的人工智能推理过程、明确区分人工智能和人类的贡献,并与利益相关方和选民共同参与设计。总而言之,应有策略地采纳和开发人工智能工具,以强化政策制定流程并改善其成果。

相关内容

热门资讯

特稿|中国高水平开放新答卷——... 新华社北京12月18日电 题:中国高水平开放新答卷——从海南自贸港封关看中国制度型开放 新华社记者宿...
雄安新区职工医保政策已覆盖36... 中新网雄安12月18日电 (赵丹媚 韩冰)12月18日,“十四五”雄安答卷 高标准高质量推进雄安新区...
原创 柬... 12月11日深夜,柬埔寨西哈努克市的豪华酒店内,16名日本籍嫌疑人被当地警方当场控制。电脑屏幕上还未...
丝芭传媒披露鞠婧祎8年收入近1... 近日,艺人鞠婧祎与此前合作的上海丝芭文化传媒集团有限公司(后简称“丝芭传媒”)之间的合同纠纷事件引发...
不仅罚款还要拘留,法律“拴紧”... ▲社区居民清理花园里的宠物粪便。新京报记者 郭延冰 摄 遛狗不拴绳,将涉嫌违法,轻则罚款,重则拘留。...
被吐槽“大字吹牛小字免责”,插... 本文自南都·湾财社。 采写 | 南都·湾财社记者 邱康正 编辑 | 子衿 近期,插线板巨头公牛集团股...
泉阳泉因1.80亿诉讼未及时披... 雷达财经 文|杨洋 编|李亦辉 12月18日,上交所发布关于对吉林泉阳泉股份有限公司及有关责任人予以...
鞠婧祎与丝芭传媒纠纷背后 丝芭... 12月17日,鞠婧祎工作室发布声明,措辞强硬地指控前经纪公司丝芭传媒涉嫌“伪造协议、骚扰合作方” 等...
【天眼问法】“荔即解”:为旅游... 在荔波小七孔景区旅游速裁法官工作站内,法官正通过移动设备联动多部门协调处置纠纷。这一幕,正是荔波县法...