人工智能正在怎样影响民主?
耶鲁大学社会与政策研究机构(ISPS)的研究科学家 Seulki Lee-Geiller 在一场学术会议开场时提出了这个问题。这场会议邀请多位学者,探讨在技术快速变化的时代,如何以新的方式思考和改进民主。
她说:“目前未知的部分比已知的部分多得多。我希望大家能够提出有启发性的问题,挑战我们原有的看法,这样在会议结束时,我们都能带着更好的问题离开,用来继续理解这一正在变化的局面。”
这次会议由 ISPS 旗下的“民主创新”(Democratic Innovations)项目主办。该项目致力于寻找和测试新的想法,以改善民主代表性和治理质量。
ISPS 主任、耶鲁大学政治学 Sterling 教授 Alan Gerber 指出:“在技术迅速发展、变化尚在进行之中的时候,对其进行分析并不容易。Seulki Lee-Geiller 和她邀请的嘉宾都明白,这些问题与整个社会相关,而不属于某个单一研究领域。我很高兴 ISPS 和民主创新项目可以支持 Lee-Geiller 及其同事共同探讨并回应这些新出现的议题。”
人力资源如何选择 AI 工具
普渡大学政治学助理教授、治理与负责任 AI 实验室(GRAIL)联合主任 Daniel Schiff 在会上介绍了他的新研究,主题是人力资源从业者如何选择人工智能工具,以及哪些价值观会影响这些选择。
他和合作者对公共部门和私营部门超过 1,400 名从业者进行了问卷调查,发现效率和伦理价值都起作用。人力资源从业者更倾向于选择成本较低、易于整合、具有透明度并包含人工监督或审批环节的 AI 系统。能够提供“同意”机会的工具也更容易被接受,而隐私保护条款对选择的影响相对有限。
同时,许多人力资源从业者认为,在招聘、绩效评估等与个人利益紧密相关的环节,AI 已经使用得过多,但在改善员工福祉、支持员工发声方面,AI 的运用还不够。研究还发现,不同部门之间的态度差异明显。
Schiff 说:“公共部门和私营部门在看待人工智能时的侧重点差别明显。公共部门的专业人士往往更重视公平、透明和人工监督。这就提出一个问题:怎样的政策和治理结构,才能在不同组织中促进更负责任的 AI 采用?”
性别与对人工智能的态度
康奈尔大学文理学院 Harold Tanner 院长、政府学教授 Peter Loewen 汇报了自己关于性别与 AI 态度差异的研究。
他发现,相比男性,女性更容易将人工智能视为带有风险的技术,尤其在工作结果不确定的情境下。女性更倾向于把 AI 和工作流失、经济不安全、公平性等问题联系在一起。而男性更容易联想到科幻中的图景,比如机器人接管、反乌托邦式未来,也会想到虚假信息,例如深度伪造和信息操纵。
此外,受过大学教育的女性对 AI 的怀疑态度更突出,这表明更高的教育程度并不总是对应对技术更乐观的看法。
Loewen 说:“女性更关注就业这种实际层面的问题,而不少男性则更容易从科幻或宏观想象入手思考 AI。”
他提出,AI 治理在设计和实施时,需要考虑这种性别差异的风险感知,如果忽视这一点,可能会加重不平等。
自动化、工会与政治格局
普林斯顿大学当代欧洲事务项目(ICEA)博士后研究员 Paolo Agnolin 建立了一套精细数据集,追踪 15 个西欧国家在地区和行业层面的工会会员情况随时间的变化。
他发现,自动化会让就业从“工会化行业”转移到“非工会化行业”。例如,从制造业转移到物流和服务业。这种岗位重新分布会让工会密度下降,尤其是在机器人采用率较高的地区。
Agnolin 指出:“现在在工厂工作的人减少了。”他认为,这类变化带来的政治影响值得关注,“随着工会力量减弱,更有可能出现为激进右翼政党提供土壤的局面。”
人工智能如何改变政治制度和公民身份
Mercy University 国际关系与外交项目主任、哥伦比亚大学国际与公共事务学院兼职教授 Eduardo Albrecht 从人类学角度讨论了 AI 如何影响政治制度和公民身份。
他回顾了人类在过去约 6,000 年中经历的几次技术推动下的制度演变:首先是书写的出现,使宗教和国家官僚体系得以形成;随后印刷术带来了对这些官僚体系的巨大冲击,推动了教会改革、启蒙运动以及近代民主的形成。
Albrecht 说:“这些像换挡一样的时刻具有重要意义。那么,现在我们正处于什么样的时刻呢?”
他指出,大量数据被收集、与政府共享并由强大计算机分析,这改变了公民与国家、以及公民与自身的关系。政府通过搜索记录和其他数字行为,更容易了解人们的想法和习惯。
他表示,“过去相对抽象的‘监控’正在变成具体的实时监控,我们在头脑中的那块私密空间变小了。从某种意义上说,我们在让渡隐私。”
Albrecht 想象了一种未来:数据让公民和国家更加“交织”,每个人在数据空间中的“数字分身”代表自己,国家可以借助 AI 的速度,对社会进行非常细致的管理。
他说:“人类作为个体,很难以这样的速度参与这种虚拟机构。这意味着我们需要讨论一种新的代表形式,比如公民的 AI 代理(avatar),这种形式超出了传统代议制民主的框架。”
即使现有机构尝试阻止这样的演变,他也认为,从长期来看,这种变化仍然很可能到来。
他从人类学角度说:“这列车已经在轨道上运行,我们没有简单的方式让它停下。”
自动化与公共服务质量
雪城大学(Syracuse University)公共管理与国际事务副教授 Johannes Himmelreich 关注的是:什么才算是一个公共服务人员把工作“做好”,以及自动化可能如何削弱这种内在标准。
他指出,用效率来衡量“任务完成得好不好”和用伦理或判断来衡量“工作做得好不好”并不是一回事。他举了苏联军官 Stanislav Petrov 的例子:1983 年,苏联防空系统误报美国导弹来袭,Petrov 通过个人判断认定这是假警报,从而避免了一场可能的核战争。
Himmelreich 说:“如果我们在不充分考虑‘什么叫把工作做好’的前提下就把任务交给自动化,可能会失去一些很重要的东西。我们希望以经过思考和权衡的方式推进自动化。”
实时追踪公众对 AI 的看法
石溪大学(Stony Brook University)社会学副教授 Jason Jeffrey Jones 介绍了他构建的一个系统,用来实时追踪公众对 AI 的态度。
这个在线看板每天收集调查问卷,自动更新结果,并以开放数据形式发布。到目前为止,项目发现:公众对 AI 的支持在 2025 年春季达到高点,之后有所下降;女性对 AI 的支持度持续低于男性;在 2025 年初,共和党支持者对 AI 的支持度超过民主党支持者。
Jones 还表示,他希望未来能建立更多类似的在线工具。
他说:“社会科学的传统研究节奏偏慢。我希望能够缩短反馈周期。”
在技术与民主之间寻找平衡
会议最后以圆桌讨论收尾,与会者围绕“技术发展是否不可避免”和“民主制度的韧性”之间的张力展开了交流。一些人强调设计新的制度和工具,另一些人更关注保留人的判断力、公民参与仪式和伦理边界。
Himmelreich 表示:“技术一直是维护国家运作的重要组成部分,但政府在构建技术方面的能力有所弱化。如果在民主制度中,有更多人可以在体制内部自己开发工具,那会比完全依赖外部企业及其利益考量更理想。”
Loewen 则强调,公民有必要知道在与政府打交道时,对面是人还是计算机。
他说:“有时候,我们不太在意后端是不是自动化处理的,但在另一些场景下,人们会很在意。我觉得,让公众知道在决策链的哪个环节是由机器、哪个环节是由人来作出判断,是有意义的。人们需要了解自己所处的是怎样一种社会环境。”









