摘要:Mapping AI 不是一个模型榜单,也不是一份公司名录,而是一张试图解释美国AI政策权力结构的关系地图。它把人物、组织、资源、立场、时间线和风险判断放进同一张图里,帮助人们看清到底是谁在定义风险、塑造议程、组织联盟,并争夺AI治理的话语权。

过去两年,AI行业最热闹的地方,表面上看是模型排行榜、算力军备竞赛和Agent产品大战。但真正决定AI未来走向的,未必只在实验室和数据中心,也在国会听证会、智库报告、基金会资助、风险投资、民权组织、劳工组织、国防承包商和前沿模型公司的公共叙事之间。
这正是 Mapping AI 这个项目有意思的地方。
它不是一个“谁的模型最强”的技术榜单,也不是一个AI公司名录,而是试图回答一个更底层的问题:到底是谁在塑造美国AI政策?他们之间有什么关系?他们相信什么?他们的钱、职位、论文、立场和影响力,正在流向哪里?
根据项目公开说明,Mapping AI 是一个众包维护的美国AI政策版图数据库,用来追踪塑造AI治理的人、组织和资源。它覆盖立法者、监管者、研究者、资助者、倡导者、前沿AI实验室和公民社会组织,并试图识别谁在影响AI治理、联盟在哪里形成、空白又出现在哪里。
这句话的分量很重。因为AI治理从来不是一场单纯的技术讨论,而是一场围绕“谁来定义风险、谁来定义创新、谁来定义公共利益”的权力竞争。
一、AI政策圈太复杂了,复杂到需要一张“权力地图”
今天的美国AI政策生态,早已不是过去那种“政府监管企业”的简单结构。
一边是 OpenAI、Anthropic、Google DeepMind、Meta、xAI 等前沿实验室,它们掌握模型能力、算力基础设施和技术叙事权。另一边是国会、白宫、联邦机构和州政府,它们掌握规则制定权。再往外,还有AI Safety组织、智库、大学、基金会、VC、国防科技公司、劳工组织、版权组织、民权组织、媒体和公共知识分子。
每一个群体都在谈“AI治理”,但他们谈的往往不是同一件事。
有人关心模型失控和灾难性风险,有人关心就业替代,有人关心版权和数据,有人关心军事实力,有人关心美国对中国的技术优势。有人反对过度监管,担心创新被掐死,也有人认为如果没有强监管,AI只会进一步放大权力集中、歧视和社会不平等。
问题在于,这些力量通常散落在无数报告、访谈、听证会、基金会资助关系、组织任职关系和社交媒体表态里。普通观察者看到的只是碎片,某位CEO说了什么,某个智库出了报告,某个议员提了法案,某个基金会资助了研究。
Mapping AI 想做的,就是把这些碎片拼成一张可以查询、可以分析、可以协作维护的关系图。
项目目前仍处于 pre-launch beta 阶段,但已经把“监管立场、影响类型、威胁模型、AGI时间线观点、证据来源”等字段纳入整理范围。换句话说,它不只是记录“谁是谁”,还试图记录“谁站在哪里”。
二、这不是目录,而是AI治理的“关系数据库”
Mapping AI 最值得注意的地方,是它没有停留在传统名录层面。
很多行业数据库只会告诉你,某某人在某公司,某机构关注AI安全,某报告讨论了AI风险。但 Mapping AI 更进一步,把对象拆成三类:人、组织、资源,再用边关系把它们连接起来,比如某人受雇于某组织、某组织资助某项目、某资源由某人撰写、某机构与某机构合作或批评。
项目文档显示,它追踪的人物包括政策制定者、研究者、资助者、倡导者、记者等。组织包括前沿实验室、智库、政府机构、劳工团体、公民社会与学术机构。资源则包括文章、报告、书籍、播客和学术论文等。
这意味着,Mapping AI 的底层逻辑不是“列表”,而是“图谱”。

在AI治理领域,这一点非常关键。因为真正的政策影响力,往往不来自单一身份,而来自多重网络位置。
一个人可能既是大学教授,又是政府顾问,还是某基金会项目评审,曾在科技公司任职,又参与起草某份政策建议。一个组织表面上是研究机构,资金却可能来自特定基金会,而它的研究员又频繁进入政府任职。一个看似中立的报告,也可能被某个联盟持续引用,最终成为监管或反监管叙事的基础。
如果没有图谱,我们只能看见点。有了图谱,才能看见结构。
三、它最有价值的地方,是把“立场”也结构化了
Mapping AI 不是只画组织关系,它还试图把观点本身结构化。
项目字段中明确包括监管立场、AGI时间线、AI风险等级、威胁模型、影响类型和证据来源等。其参考字段把监管立场分成从 Accelerate(最小监管)、Light-touch(自愿治理) 到 Moderate(强制安全评估与透明度)、Restrictive(外部监督算力和训练)、Precautionary(暂停或禁令)、Nationalize(国有化或公共控制) 等类型;AI风险等级则包括“被夸大、可管理、严重、灾难性、存在性风险”等。
这其实抓住了AI政策争论的核心。
未来几年,围绕AI的争论不会只是“要不要监管”,而会越来越细分,监管谁,监管模型还是应用,监管算力还是产品,监管开源还是闭源,监管前沿训练还是下游部署,安全评估由企业自己做还是第三方做,政府是鼓励加速、谨慎观察,还是建立强制审查机制。
如果这些立场不能被结构化,公共讨论就会长期停留在口号层面。

Mapping AI 的意义就在于,它把“某人支持AI监管”这种模糊说法拆成了可以比较的维度。更重要的是,它还区分“明确表态”和“推断立场”。项目说明称,数据来自 公开记录、用户提交和LLM辅助研究;对于没有明确表态的情况,部分信念可能被推断,但推断立场并不代表官方立场,并欢迎纠错。
这是一种相对诚实的处理方式。AI政策研究不可能完全避免判断,但至少应该把判断暴露出来,让别人能够质疑、修正和补充。
四、真正的影响力,来自多重网络位置
在AI政策世界里,一个人从来不只是一个标签。
你不能只看某个人现在在哪家公司,也不能只看他最近一次在听证会上说了什么。更重要的是,他过去在哪些机构任职,和谁合作,接受谁资助,被谁引用,又在什么议题上与谁形成联盟。

以项目展示的人物页面为例,一个节点不只是“名字+头衔”,而是会进一步关联其组织归属、合作关系、政策立场与证据来源。这种呈现方式的价值在于,它把“人物介绍”变成了“位置分析”。
在政策领域,真正重要的往往不是某个人说了什么,而是他处在什么位置上说,连接着哪些资源,又能把哪些叙事送进制度入口。
五、它也是一个“开源政策基础设施”实验
Mapping AI 还有一个很值得注意的特点,它把政策研究做成了开源项目。
项目 GitHub 仓库显示,它是公开仓库,前端技术栈包括 Vite、React、TypeScript 和 Tailwind CSS,地图页面使用 D3.js 与 Canvas 2D 来呈现关系图。
在数据流程上,用户可以通过贡献表单提交人物、组织或资源,所有提交在出现在地图前都需要审核。项目还设计了后台审核、搜索、地图数据导出、垃圾提交防护和速率限制等机制。也就是说,它不是“谁都能改”的维基,而是一个带审核链条的协作式数据库。
这让它看起来不像传统智库报告,更像一个可持续更新的政策操作系统。
过去,政策研究最常见的形态是PDF,写完、发布、传播,然后很快过时。但AI政策生态变化太快了。今天某人还在公司,明天可能进入政府;今天某机构主张自律,明天可能支持强制评估;今天某基金会资助AI安全,明天可能转向劳工议题。
如果政策研究仍然停留在一次性报告层面,就很难跟上AI治理的动态变化。Mapping AI 的启发在于,未来的政策分析可能不再只是文章,而会是数据库、图谱、可视化工具和社区协作流程的结合。
六、它不是绝对中立的百科,而是带有政策目标的工具
不过,也要看清楚,Mapping AI 并不是一个完全无立场的“AI政策维基百科”。
项目 README 明确提到,这张地图的目标之一,是识别谁在塑造AI治理、联盟在哪里形成、空白在哪里,并将其作为协调 progressive policy agenda 的基础。
这句话很重要。它说明 Mapping AI 不只是观察工具,也是行动工具。它不只是为了让人“看懂美国AI政策圈”,也是为了帮助特定政策社群更好地组织、协作和干预。
这不一定是缺点。所有政策工具都很难完全中立。真正的问题不是有没有立场,而是立场是否公开,数据是否可追溯,方法是否可质疑,错误是否可修正。
从这个角度看,Mapping AI 至少做对了一件事,它把自己的数据结构、技术实现、贡献流程和部分方法公开出来,让外部可以检查。项目也明确注明自己仍处于 pre-launch beta 阶段,数据和功能都还在持续改进。
七、谁定义AGI,谁就在提前塑造监管议程
如果说关系图回答的是“谁在影响AI政策”,那么项目中的 AGI Definition Space 回答的则是另一个更深的问题,这些影响者究竟在谈论什么样的“AGI”。
从项目展示看,不同人物与组织对AGI的定义并不一致,而是分布在“人类级认知对齐”“通用代理”“超级智能系统”“经济工作自动化”“变革性影响”等多个概念簇中。
这意味着,AI治理分歧不仅是立场分歧,也是定义分歧。有人把AGI理解为接近人类认知能力的系统,有人强调自主研究能力,有人关注对劳动和经济结构的替代效应,也有人直接从超级智能或社会变革角度理解其影响。

而一旦定义不同,风险判断、时间线预测和监管重点就会跟着变化。换句话说,很多政策竞争在法案出现之前,就已经在概念层面开始了。
八、它正在变成一个带分析能力的“政策仪表盘”
更有意思的是,Mapping AI 并不满足于把节点和关系摆出来,它还试图做进一步分析。
例如项目里的 belief outliers 视图,会把“监管立场、AGI时间线、风险判断”等组合中的离群点挑出来,让用户看到谁处在共识之外,哪些立场搭配罕见,哪些人可能代表某种正在形成的新联盟或少数派路线。

这就使它开始具备一种“政策分析仪表盘”的意味,而不只是关系展示页面。对研究者、记者、政策顾问甚至倡导组织来说,这类能力很重要。因为很多时候,真正值得注意的并不是主流共识,而是那些正在偏离共识、但可能很快形成新议程的节点。
九、对中国AI产业和政策研究有什么启发?
对中国读者来说,Mapping AI 最值得借鉴的,不是它画了哪些美国机构,而是它背后的方法论。
第一,AI治理不能只看政策文件,还要看政策网络。谁在写报告,谁在资助研究,谁在进入政府,谁在影响媒体叙事,谁在推动产业联盟,这些关系有时比单份文件更重要。
第二,AI产业研究不能只盯模型和公司估值,也要看制度生态。一个国家的AI竞争力,不只是算力、模型、数据和应用,也包括它能否形成高质量的政策反馈系统。
第三,政策研究正在从“文本型”走向“数据型”。未来研究一个产业,不能只是写观点,还要沉淀结构化数据,人物、机构、资金、项目、政策、论文、标准、联盟、争议、案例和演化路径,都应该被持续积累。
第四,AI本身正在反过来改变政策研究。Mapping AI 使用公开记录、用户提交和LLM辅助研究来整理数据,这提示我们,大模型不只是政策研究的对象,也会成为政策研究的工具。它可以帮助抽取信息、归类立场、发现关系、生成摘要,但前提始终是有人类审核和证据链约束。
结语:AI时代,谁拥有地图,谁就更接近权力中心
Mapping AI 的出现说明,AI竞争已经进入一个新阶段。
第一阶段,人们争论模型能力。第二阶段,人们争论应用落地。第三阶段,人们开始争论治理结构。而到了治理结构阶段,最稀缺的东西不是口号,而是地图。
谁能看清生态,谁就能更早发现联盟。谁能看清资金,谁就能理解议程。谁能看清立场,谁就能判断政策走向。谁能看清空白,谁就能找到下一轮行动入口。
Mapping AI 真正有意思的地方,就在这里。它把“AI政策”从一堆新闻、报告和人名,变成了一张可以被搜索、被讨论、被纠错、被扩展的网络。
这或许也是AI时代所有产业研究都要面对的变化。未来,真正有价值的观察者,不只是会写文章的人,而是能把复杂世界画成结构图的人。
更进一步说,未来竞争的恐怕不只是模型能力,也是政策认知基础设施的竞争。谁更早把复杂利益格局做成结构化地图,谁就更有机会提前介入规则形成的过程。
参考资料:
- Mapping AI, Project Overview and README
- Mapping AI GitHub repository and public product pages
- 项目公开页面中的 Map、Insights、Contribute 与 AGI Definition Space 展示内容