国务院发布AI行动意见:安全合规是“人工智能+”的生命线

2025-09-05 17:30
12



2025年8月26日,国务院正式发布了《关于深入实施“人工智能+”行动的意见》(国发〔2025〕11号,以下简称《意见》),明确提出要推动人工智能与经济社会各领域深度融合,构建具有全球竞争力的人工智能创新体系。《意见》强调,要加快人工智能在制造、交通、金融、医疗、教育、能源等重点行业的应用落地,提升智能化生产和服务能力,同时注重技术安全、系统可信与可控性,这一核心要求将成为未来AI产业发展的重要基石。

图片

   

    《意见》为人工智能的发展设定了清晰的阶段性目标:到2027年,实现重点行业人工智能应用的广泛深度融合,使智能终端普及率达到70%以上,智能经济核心产业显著增长,公共治理AI应用能力明显提升,同时建立完善的开放合作体系。到2030年,人工智能应用普及率将超过90%,智能经济成为拉动经济增长的重要引擎,实现技术普惠与成果共享;到2035年,我国将全面进入智能经济社会阶段,为现代化建设提供有力支撑。这一目标体系展现了国家推动“人工智能+”的宏伟蓝图,但同时也对企业提出了更高的要求:必须确保技术的安全、可信与合规,才能在政策引领下实现稳健发展。


    《意见》中特别强调,人工智能产业要推动模型算法、数据资源、基础设施、应用系统等安全能力建设,防范模型黑箱、幻觉、算法歧视等风险,加强前瞻性评估和监测处置,推动人工智能应用合规、透明、可信赖。这意味着未来的人工智能系统不仅需要具备强大的算力和智能算法,更要在设计、开发、运行全生命周期中确保网络安全和信息安全。在智能制造、智慧医疗、金融风控、智能交通等关键领域,系统漏洞或安全事件可能带来重大风险,威胁公共安全和经济秩序。网络安全与合规保障,已成为人工智能产业发展的战略底线。


图片

   

    人工智能的复杂性决定了它在安全和合规层面需要更高的技术要求。与传统软件不同,AI系统依赖于庞大的数据集、复杂的算法模型和动态的学习机制,其结果往往难以完全预测。这种不确定性给网络安全和合规带来了巨大挑战。如果企业缺乏系统性的安全验证手段,就可能在算法决策、公平性、透明度、隐私保护等方面引发严重问题。例如,医疗AI的诊断错误不仅可能导致患者生命风险,还涉及敏感健康数据泄露;金融AI若在风控中存在偏差,可能导致系统性经济风险;交通自动驾驶AI如果遭遇网络攻击,将直接威胁公共安全。因此,建立完善的网络安全体系,确保人工智能产品合规、安全运行,是企业和社会不可回避的任务。


  《意见》提出,要提升我国在全球人工智能领域中的话语权和影响力。在人工智能的全球化发展背景下,安全合规已成为企业走向国际市场的“必修课”,随着欧盟EUCC认证、网络弹性法案(CRA)等国际网络安全认证标准的实施,国内企业若要参与国际竞争,不仅要在技术创新上具备优势,更要具备与国际标准接轨的合规能力。


图片

   

    总体来看,《国务院关于深入实施“人工智能+”行动的意见》不仅为人工智能产业发展指明了方向,也明确了人工智能产品安全和系统合规的重要性。它要求企业在追求创新突破的同时,必须以安全和可信为发展底线。无论是算法模型的透明性、数据使用的合规性,还是系统运行的稳定性,都需要在全流程中进行严格把控。安全合规不是附加条件,而是AI走向大规模应用、实现社会普惠的必要保障。


    人工智能的发展不仅关乎技术创新,更关系社会信任和产业安全。作为专注于形式化验证和安全认证的企业,望安科技将继续发挥自身优势,为人工智能企业提供全流程的安全保障和技术支持。未来,望安科技将继续坚定不移地遵循国家政策指引,与各界携手,共同推动人工智能技术在安全合规的前提下赋能百业、服务社会,迈向更加智能、也更值得信赖的未来!