📋 AI 政策库
新加坡核心 AI 相关政策文档汇编,按分类整理,每类按时间倒序排列。
🏛️ 国家战略 (7 份)
公共 AI 研究投资计划 (2026-2030)
Public AI Research Investment 2026-2030
10 亿新元(7.79 亿美元)公共 AI 研究投资,聚焦负责任和资源高效的 AI。
2026 年 1 月 24 日,数字发展与信息部宣布 2026-2030 年间投资超 10 亿新元(约 7.79 亿美元)用于公共 AI 研究。三大方向:一是"负责任和资源高效的 AI"研究,延续 AI Verify 等可信赖 AI 路线;二是全链条 AI 人才培养,从高中预科到大学教师培训;三是支持产业应用,缩短研究到商业化路径。这是继 2024 年 5 亿新元高性能计算资源投资后的又一重大投入,标志着新加坡从"试点探索"进入"规模化建设"阶段。人均 AI 投资达 139 美元,远高于美国(33 美元)和中国(7 美元)。
国家人工智能战略 2.0
National AI Strategy 2.0 (NAIS 2.0)
升级版国家 AI 战略,提出 AI for Public Good、AI for Growth 双轨目标,确定九大优先领域。
NAIS 2.0 将 AI 战略从"重点应用"升级为"系统性赋能"。双轨目标:AI for Public Good 和 AI for Growth。涵盖十五大行动,追加拨款至 10 亿新元以上,建设国家 AI 计算基础设施。确定九大优先领域:交通物流、制造业、金融、安全、网络安全、智慧城市、医疗、教育和政府服务,其中医疗和金融科技获最高投资比重。
智慧国家 2.0
Smart Nation 2.0
数字基础设施升级蓝图,涵盖数字政府、数字经济、数字社会三大支柱。
Smart Nation 2.0 是 2014 年智慧国家倡议的全面升级,于 2023 年 10 月发布。三大支柱:数字政府——推动政府服务全面数字化和 AI 化;数字经济——支持企业数字化转型和 AI 采纳;数字社会——确保全民具备数字素养,缩小数字鸿沟。2024 年 10 月启动具体落地计划,包括 1.2 亿新元 AI 应用基金,支持五大国家 AI 项目:智能货运规划、市政服务、慢性病预测与管理、个性化教育和边境清关。在基础设施层面,规划了国家级 AI 计算平台、数据共享基础设施和安全的数字身份体系。
国家人工智能战略 1.0
National AI Strategy (NAIS 1.0)
新加坡首份国家级 AI 战略,确立五大重点领域和三大推动力。
NAIS 1.0 标志着 AI 从技术议题上升为国家战略。五大重点领域:智能交通与物流、智慧城市、医疗健康、教育、安全与保障。三大推动力:三重螺旋合作、AI 人才管道、数据架构与可信 AI。催生了 AI Singapore 项目和 100 Experiments 计划。
智慧国家倡议
Smart Nation Initiative
新加坡数字化转型总体框架,为后续 AI 战略奠定基础。
2014 年,新加坡总理李显龙宣布 Smart Nation Initiative,这是全面数字化转型的总体战略框架。核心目标包括利用数字技术改善市民生活、创造更多经济机会、建设更紧密联系的社区。虽非专门的 AI 政策,但为后续 AI 战略提供了制度基础和政策框架。
SAF Digital and Intelligence Service (DIS)
SAF Digital and Intelligence Service — Fourth Service
SAF 第四军种成立——把 AI 与数字情报写进军种结构本身。
2022 年 10 月,新加坡国防部正式成立 SAF Digital and Intelligence Service (DIS),作为陆军、海军、空军之外的第四军种,专责数字与情报作战、网络防御、AI 决策支持。2025 年 DIS 进一步重组为 DCCOM(数字网络指挥部)和 SAFC4DC(C4 与防务计算指挥部)两个司令部。这是新加坡国家级 AI-native 战略最深的结构性动作——把 AI 写进军种本身,而非作为某个部门的项目。配套:DIS × AI Singapore MoU、DIS Sentinel Programme + AI 课程、SAF Digital Range / CyTEC 升级。
Singapore AI Safety Institute (AISI)
Singapore AI Safety Institute
前沿 AI 安全研究的国家级研究所,承担 Singapore Consensus 协调职能。
Singapore AI Safety Institute (AISI) 于 2024 年成立,年度预算 S$10M,由 IMDA 与 Digital Trust Centre 联合运营,挂靠 NTU。承担前沿 AI 模型的红队评估、对齐研究、可追溯性测试三类核心研究。AISI 还作为 Singapore Consensus on Global AI Safety Research Priorities(11 国签署,含中美)的协调中心,并主办 International Scientific Exchange on AI Safety(ISESEA)I + II。AISI 是新加坡"用 0.07% 全球人口撬动 G7 级 AI 治理话语权"战略最关键的机构。
⚖️ 治理框架 (7 份)
Agentic AI 治理框架
Model AI Governance Framework for Agentic AI
针对自主 AI Agent 的治理框架,应对 AI 自主决策带来的新挑战。
随着 Agentic AI(自主 AI 代理)快速发展,IMDA 于 2026 年 1 月发布专门的治理框架。聚焦 AI Agent 的自主决策边界、人类监督机制、责任归属、安全防护等核心议题。
生成式 AI 治理框架
Proposed Model AI Governance Framework for Generative AI
专门针对生成式 AI 的治理框架提案,应对大模型带来的新挑战。
全球较早的专门针对生成式 AI 的治理框架提案。九大维度:问责制、数据治理、可信开发与部署、事件报告、测试与保证、安全、内容来源、使用者素养、辅助措施。采用多利益相关方方法,强调"沙盒式"治理。
AI Verify 测试框架
AI Verify
全球首个 AI 治理测试框架和工具包,支持企业自测 AI 系统合规性。
全球首个 AI 治理测试框架与工具包。11 项可测试指标,开源工具包,与国际标准对齐。2023 年成立 AI Verify Foundation 推动全球协作。将 AI 治理从"原则"推向"可操作"。
AI 治理模型框架
Model AI Governance Framework
亚洲首个 AI 治理框架,提出可解释、透明、以人为本的 AI 治理原则。
2019 年在达沃斯发布,亚洲首个 AI 治理框架。四大核心原则:内部治理结构与措施、决策中的人类参与、运营管理、利益相关方互动与沟通。被 OECD 引用为最佳实践。
个人数据保护法
Personal Data Protection Act (PDPA)
新加坡核心数据保护法律,2020 年修订加入 AI 相关条款。
核心数据保护法律,2012 年通过,2020 年重大修订。引入合法利益例外(Business Improvement Exception)、数据可携带权、加强执法力度。为 AI 数据使用划定法律边界。
MAS Project MindForge
Project MindForge — GenAI Risk Framework for Financial Sector
GenAI 在金融业的风险框架,24 家机构 + 四大云厂商(Microsoft / AWS / Google / NVIDIA)共建。
Project MindForge 是 MAS 主导的金融业 GenAI 风险框架,于 2024 年启动。Consortium 成员包括 24 家金融机构(DBS、UOB、OCBC、HSBC、JPMorgan 等)+ 四大云与 AI 厂商(Microsoft、AWS、Google、NVIDIA)+ 监管机构。框架围绕七大风险维度:模型幻觉、数据泄露、偏差与公平、供应链依赖、可解释性、对抗性攻击、责任分配。MindForge 的特殊之处在于让监管机构、被监管金融机构、技术供应商三方在同一桌上协调——这是新加坡 AI 治理"训练宽松 + 输出严管"哲学在金融业的具体落地,也是 FEAT → Veritas → MindForge → BuildFin.ai 五层堆栈中第三层。
MAS AI Risk Management Guidelines
AI Risk Management Guidelines for Banks
金融业 AI 模型风险管理的监管期望书,正式约束银行使用 AI。
MAS 于 2024 年 12 月发布 AI Risk Management Guidelines,把 FEAT / Veritas / MindForge 多年累积的实践经验固化为正式监管期望书。覆盖:模型治理(数据、训练、验证、上线)、第三方 AI 风险(云厂商、模型供应商、API)、模型监控(漂移、偏差、性能)、人在回路、事件应对与责任。配套 BuildFin.ai 平台让被监管机构能持续测试和报告。这是全球首批专门针对银行业 AI 的监管文件,比欧盟 AI Act 金融条款落地更快。
🏢 行业监管 (5 份)
CSA AI 系统安全指南
Guidelines on Securing AI Systems
AI 系统全生命周期安全最佳实践指南。
CSA 于 2024 年 10 月发布 AI 系统安全指南及配套实践手册,填补了 AI 安全领域的治理空白。指南覆盖 AI 系统全生命周期:规划与设计阶段的威胁建模、开发阶段的数据与模型安全、部署阶段的安全测试、运维阶段的监控与事件响应。重点关注对抗性攻击防御、数据投毒防范、模型窃取防护、供应链安全等 AI 特有风险。
法院生成式 AI 使用指南
Guide on Use of Generative AI Tools by Court Users
法律诉讼中使用生成式 AI 工具的原则和指引。
新加坡最高法院于 2024 年发布生成式 AI 使用指南(Registrar's Circular No. 1 of 2024),适用于所有法院体系。核心原则:律师和当事人对提交法院的所有内容负最终责任,无论是否使用 AI 生成;使用 GenAI 辅助准备的法律文件须披露 AI 使用情况;引用的案例和法律条文须经人工核实。体现了司法系统对 AI 工具的务实态度——不禁止使用,但强调人类责任不可转移。
MAS Veritas 倡议
Veritas Initiative
将 FEAT 原则转化为可操作的评估工具包,提供开源方法论。
Veritas 倡议是 FEAT 原则的实践延伸,由 MAS 联合金融机构共同开发。项目目标是创建一套开源、可操作的评估方法论和工具包,帮助金融机构将 FEAT 原则落地到具体 AI 应用中。涵盖客户营销公平性评估、信用风险评分透明度评估等场景。Veritas 持续更新迭代,体现新加坡"原则→工具→实践"的渐进式 AI 治理路径。
MAS FEAT 原则
Fairness, Ethics, Accountability, Transparency (FEAT) Principles
金融业 AI 使用的公平性、伦理、问责和透明度原则。
MAS 于 2018 年发布 FEAT 原则,为金融机构使用 AI 和数据分析提供治理指引。四大原则:公平性(Fairness)——确保 AI 决策不产生歧视;伦理(Ethics)——AI 使用符合道德标准;问责(Accountability)——明确 AI 决策的责任归属;透明度(Transparency)——AI 决策过程可理解、可解释。2022 年更新版纳入更多实践指导。
Copyright Act §244 — AI 训练例外
Copyright Act 2021 — Section 244 (Computational Data Analysis Exception)
AI 训练免责条款——与日本并列全球最宽松的 AI 训练版权立场。
Copyright Act 2021 第 244 条 "Computational Data Analysis" 给 AI 训练数据使用提供明确的免责条款:合法获取的内容(不论是否有版权)可用于 AI 模型训练、文本与数据挖掘等"计算分析"用途,不构成版权侵权。这与日本《著作权法》第 30-4 条并列为全球最宽松的 AI 训练版权立场——美国仍在 fair use 案例法争议中、欧盟需依赖 Text and Data Mining Exception 的 opt-out 机制。配合 IPOS 的 "When Code Creates" 报告(2024)和"训练宽松 + 输出严管"哲学(OCHA + Elections Bill + Criminal Law Bill + Online Safety Bill 四件套),新加坡为 AI 公司提供了**全球最清晰的法律边界之一**——这是 EDB 能引进 OpenAI / Anthropic / DeepMind 等机构的关键背景之一。
💰 预算与资金 (4 份)
2026 财政预算案 — 国家 AI 全面推进
Budget 2026 — National AI Acceleration
成立国家 AI 委员会、AI 税收减免、one-north AI 园区、AI Mission 计划。
2026 年预算案将 AI 推进提升到前所未有的高度。核心举措:成立由总理亲自主持的 National AI Council;Enterprise Innovation Scheme 的 400% 税务扣除扩展至 AI 相关支出;启动 one-north AI 园区建设;推出 AI Mission 计划聚焦关键领域应用;设立 National AI Literacy Programme 提升全民 AI 素养。这是新加坡 AI 政策从战略到全面执行的标志性预算。
2026 卫生部供给委员会 — 医疗AI与健保改革
MOH Committee of Supply 2026 — Healthcare AI & MediSave Reform
ACE-AI 预测工具部署、BRCA1/2 基因检测补贴、MediShield Life 覆盖预防性手术、MediSave 限额提升。
2026 年 3 月卫生部供给委员会辩论,卫生部长王乙康宣布新加坡正式成为超老龄社会(65 岁以上人口超 21%)。核心措施:一、ACE-AI 预测工具(由国家医疗科技局 Synapxe 开发),预测 3 年内糖尿病及高脂血症风险,>75% 风险者由 3 年一检提升至每年检查,2027 年初推广至所有约 1,100 家 Healthier SG 诊所,坚持"AI 增强而非 AI 决定"原则,临床医生保持在决策回路中;二、BRCA1/2 基因检测从 2026 年 12 月起获最高 70% 补贴,每年 2,000+ 人符合条件;三、MediShield Life 扩展覆盖预防性乳房切除术(Q3 2026)及风险降低型输卵管卵巢切除术(Q4 2026);四、MediSave 慢性病与预防护理限额从 500/700 提至 700/1000(2027 年 1 月起),惠及 91 万+ 患者。
2025 财政预算案 — AI 相关措施
Budget 2025 — AI-related Measures
黄循财首份预算案,释放大规模 AI 投入信号。
2025 年预算案是黄循财出任总理后的首份预算案,首次将 AI 列为财政优先事项。重点措施包括:加速企业数字化转型拨款、扩大 AI 技能培训计划覆盖面、增加 AI 研发投入。预算案为后续 NAIS 2.0 的落地执行提供了财政保障,标志着 AI 从战略规划正式进入财政拨款阶段。
RIE2025 研究创新计划
Research, Innovation and Enterprise 2025 Plan
250 亿新元五年研发计划,AI 列为重点投资领域。
RIE2025 计划覆盖 2021-2025 年,总投入 250 亿新元,是新加坡历史上最大规模的研发投资。四大战略领域:制造贸易与连接、人类健康与潜能、城市可持续发展与智慧国家、数字经济。AI 贯穿各领域,是核心使能技术。计划支持 AI Singapore 等国家级 AI 研究项目,资助 AI 人才培养、基础研究和产业应用。
🌏 国际合作 (7 份)
首尔 AI 安全峰会承诺
Seoul AI Safety Commitment
参与 Seoul AI Safety Summit,进一步推进 AI 安全治理承诺。
2024 年 5 月,新加坡参加在韩国首尔举行的第二届 AI 安全峰会,签署 Seoul AI Safety Commitment。在 Bletchley Declaration 基础上进一步深化承诺:推动前沿 AI 安全评估标准的制定、支持 AI 安全研究所之间的国际协作、促进 AI 安全测试方法论的共享。新加坡连续参与两届峰会,持续巩固其在全球 AI 治理中的积极参与者角色。
Bletchley Park AI 安全峰会承诺
Bletchley Declaration on AI Safety
签署 Bletchley Declaration,承诺 AI 安全国际合作。
2023 年 11 月,新加坡作为 28 个签署国之一参与了在英国 Bletchley Park 举行的首届全球 AI 安全峰会。签署 Bletchley Declaration,核心承诺包括:识别前沿 AI 带来的共同风险、各国承担 AI 安全的相应责任、加强 AI 安全研究的国际合作。宣言特别关注前沿 AI 模型的潜在风险,包括网络安全威胁、生物技术风险和虚假信息。
加入全球 AI 合作伙伴关系 (GPAI)
Global Partnership on AI (GPAI)
新加坡成为 GPAI 创始成员,参与负责任 AI 国际治理。
新加坡于 2020 年成为 GPAI 创始成员国之一。GPAI 是由多国政府发起的国际倡议,旨在通过多利益相关方合作推动负责任 AI 的发展和使用。新加坡积极参与 GPAI 的工作组,包括负责任 AI、数据治理、未来工作、创新与商业化等方向。加入 GPAI 体现了新加坡在 AI 治理领域的国际参与意愿,也为本国政策制定引入国际视角和最佳实践。
Singapore Consensus on Global AI Safety Research Priorities
Singapore Consensus on Global AI Safety Research Priorities
新加坡发起、11 国签署(含中美)的全球 AI 安全研究优先级共识。
Singapore Consensus 是新加坡 2024 年 4 月在 ICLR 期间召开的国际科学交流会议(ISESEA I)成果,最终由 11 个国家或地区共同签署,**罕见地把中美都纳入同一份 AI 安全文件**。共识围绕三大研究优先级:(1) 风险评估方法论标准化;(2) 跨国前沿模型红队协作;(3) 关键基础设施 AI 部署的安全门槛。这是新加坡国家 AI-native 战略最具杠杆的产出之一——用 0.07% 的全球人口建立起 AI 治理领域的"中立坐标"。配套机制包括 ISESEA II(2026)持续更新共识、AISI 作为协调中心、Bletchley/Seoul/Paris AI Summits 持续输出。
ASEAN Guide on AI Governance and Ethics
ASEAN Guide on AI Governance and Ethics
ASEAN 10 国采纳的 AI 治理指南,新加坡主导起草,IMDA 承担秘书处职能。
ASEAN Guide on AI Governance and Ethics 由新加坡主导起草,2024 年 2 月由 ASEAN 数字部长会议正式通过,10 个成员国采纳。指南直接基于新加坡 Model AI Governance Framework,是新加坡治理模板的"区域化版本"。覆盖:组织治理、数据治理、AI 系统全生命周期管理、人在回路、风险分级。新加坡通过 ASEAN Working Group on AI Governance(WG-AI)持续承担秘书处职能。这是新加坡战略的关键杠杆——把本国治理标准变成区域默认标准,让外资在东南亚部署 AI 时**自然地遵循新加坡定义的边界**。延伸:2026 年 ASEAN Hanoi Declaration 进一步深化数字部长合作。
REAIM Seoul Summit 2024 — 联合主办
Responsible AI in the Military Domain (REAIM) Seoul Summit
REAIM Seoul Summit 五个联合主办国之一,把"军事 AI 责任使用"推向国际议程。
Responsible AI in the Military Domain (REAIM) Seoul Summit 2024 是 REAIM 系列的第二届,新加坡作为五个联合主办国之一(与韩国、荷兰、英国、肯尼亚),把军事 AI 的责任使用推到国际议程。Summit 通过《Blueprint for Action》——首个把军事 AI 治理写成可操作步骤的多边文件,覆盖:人在指挥链中的位置、自主武器边界、AI 决策的国际人道法适用、跨国信任建立机制。新加坡同时主持 REAIM Asia Regional Consultations,把对话扩到东南亚。这是新加坡用"治理中立区"定位介入最敏感议题(军事 AI)的标志性动作——不靠武力,靠规则起草权。
International Scientific Exchange on AI Safety (ISESEA)
International Scientific Exchange on AI Safety
ICLR 期间召开的全球 AI 安全科学交流会,已办两届,是 Singapore Consensus 的孵化平台。
International Scientific Exchange on AI Safety(ISESEA)由 IMDA 和 Singapore AI Safety Institute 联合主办,借势 ICLR(国际学习表征会议)每年在新加坡或合作地举办。2024 年 ISESEA I 孵化出 Singapore Consensus;2026 年 ISESEA II 继续更新共识、扩展研究优先级。会议定位刻意"科学家+政府+产业"三层混合,避免单纯外交场合的政治化。这是新加坡 AI 国际治理战略的"温和入口"——用学术活动建立非政治化共识,再让政府层面采纳。