引领人工智能:构建安全、可靠与可控的未来之路

6次阅读
没有评论

  【理论探索新视野】

  作者:曾楠(广东省习近平新时代中国特色社会主义思想研究中心特约研究员,南方医科大学马克思主义学院院长、教授)

  习近平总书记强调:“应当深入理解人工智能的发展趋势与规律,迅速制定和完善相关法律法规、政策制度、应用规范及伦理标准,建立技术监测、风险预警和应急响应机制,确保人工智能的安全、可靠与可控。”最近,国务院发布了《关于深入实施“人工智能+”行动的意见》,其中提到“需共同分析并积极应对人工智能应用中的风险,以确保其发展安全、可靠、可控”。如今,人工智能正在以前所未有的深度和广度转变社会运行的模式。然而,从大型语言模型产生的“幻觉”到自动驾驶系统的决策偏差,从深度伪造技术对社会信任的侵蚀到算法黑箱带来的不透明和偏见……尽管人工智能的性能实现了飞跃,其内在的安全与可靠性问题却成为限制其健康发展的重要因素。传统的事后补救和外挂防护型治理模式如同在高速运行的列车外进行修补,不仅效率低下,还难以触及复杂系统内部的深层结构性问题。因此,探索以系统治理促进人工智能的安全、可靠和可控发展显得尤为迫切。

  从“补丁修复”到“免疫系统”的转型升级

  “补丁修复”模式延续了传统的网络安全理念,其主要特征为事后补救、外部添加和局部调整,在人工智能治理的初期发挥了重要作用。例如,当发现人工智能系统表现出偏见和歧视时,我们会使用“过滤器”来筛查其输出;当系统容易受到“误导”或“欺骗”时,我们又增加了额外的防护措施;当人工智能的决策过程变得晦涩难懂时,我们会开发外部工具进行解读。然而,这种模式存在固有的局限性:其预警和响应往往滞后于风险的实际显现,难以覆盖链式、跨模态的新型风险;附加的安全模块可能与原有系统不相容,影响模型性能并产生新脆弱性;规则化的应对方式无法适应快速迭代的攻击手法。修补漏洞无法替代建设坚固的防线,依赖外部补丁难以形成系统性的安全韧性。

  为了确保人工智能系统的安全、可靠与可控,必须从系统设计的根本逻辑出发,将安全与可靠的目标内化为技术架构、算法模型、数据流程甚至开发范式的核心基因,使其具备类似生物免疫系统的自我识别、动态适应与协同防御功能,随着系统的演变而自适应进化,从而降低安全风险的发生概率和危害。这一新范式涵盖三个核心维度:架构安全、过程安全与价值安全。具体而言,首先要筑牢架构安全防线,将安全特性嵌入模型底层,使其具备更强的抗干扰和抗欺骗能力,难以被“病毒”侵入,并能更好地保护数据隐私;其次,构建过程安全监控体系,在模型的训练、部署和运行全过程中实施动态风险监测与反馈调节;最后,设立价值安全指引,把价值观、伦理标准和社会规范内化为人工智能系统的行为准则,通过价值观的对齐,使系统不仅能有效执行任务,还能理解其行动的伦理含义和社会影响。

  从“概率正确”到“透明可控”的信任构建

  目前,大多数人工智能系统依赖大数据和概率模型进行运行,通过分析大量数据识别反复出现的模式,从而作出判断,这种方式通常被称为“概率正确”。尽管这种方式高效,但也存在显著的局限性与风险。首先,结果的不确定性。模型可能会产生“幻觉”,即生成看似真实但实际上虚假的信息。在医疗诊断、司法辅助等关键场景中,模型的“幻觉”可能导致严重后果。其次,决策的不可追溯性。当系统做出某项决策时,使用者往往无法理解其具体推理过程,这不仅影响结果的验证,还妨碍错误的纠正与改进。最后,风险的不可预见性。系统在常规环境下可能运行良好,但在面对新情况或遭受干扰时,可能会出现无法预见的错误,给实际应用带来隐患。

  人工智能系统的可靠性不应仅停留在统计上“高概率正确”,而应追求在复杂、开放和动态环境中的“高置信可靠”。其核心在于建立可知、可控、可信的技术闭环,使人工智能系统不再是神秘难测的“黑箱”,而是行为可预期、风险可管理、决策可追责的“透明箱”或“玻璃箱”,具备以下特性:可解释性,即系统不仅能生成结果,还能提供清晰、可理解的决策依据和推理路径,确保开发者与使用者能够透明地追溯其行为;预期一致性,即系统的行为表现始终处于其声明的能力边界与设计目标之内,不会产生无法预知的、超出功能范围的行为,确保行动结果与人类预期高度一致;可验证性,系统的性能、逻辑和输出结果能够通过独立且系统化的方法进行测试、检验与审计,确保其行为始终符合预设的技术规范与伦理标准;可干预性,即在关键决策节点或系统表现异常时,人类能够及时进行干预、修正或终止,始终将最终控制权掌握在人的手中。

  推进技术、标准与伦理的系统性“治理工程”

  推动人工智能的安全、可靠与可控发展,绝不仅仅是技术的优化,而是一项深度融合技术创新、标准规范和伦理准则的系统性“治理工程”,即将治理要求结构化、自动化地嵌入人工智能系统的设计、开发、部署、运行与迭代的整个过程。

  以技术创新为治理基础,筑牢安全可控的底层支撑。技术是实现有效治理的基石。应重点发展以可信人工智能为核心的关键技术,从设计之初就内置安全特性,确保系统行为的可靠性,为治理提供坚实基础。主要包括几个方向:研发具有高稳定性和抗干扰能力的算法模型,使系统在面对恶意攻击或异常数据时仍能保持正常运行;推进可解释人工智能技术,使系统的决策过程变得清晰可见;构建测试验证与持续监测体系,实现对系统风险的实时预警与动态防护。

  以标准规范为治理准则,确立清晰一致的行业标尺。标准是治理体系的基准,为技术创新和产业应用提供统一的规范。应加快构建覆盖人工智能全生命周期和多维度的标准体系。在基础共性方面,建立术语、架构和评估基准标准;在关键技术领域,制定可解释性、隐私保护等技术标准;在行业应用层面,推出针对医疗、交通、金融等重点领域的应用规范与管理指南。这些标准不仅为产品研发和质量评估提供依据,也为监管执法与社会监督提供可靠的参考,有助于推动产业形成共识,避免无序发展,实现规范中创新、标准下落地。

  以伦理准则为治理灵魂,引领负责任的创新方向。伦理准则为技术发展提供价值导向。伦理治理的目标是确保人工智能的发展始终遵循人类价值观和共同福祉,实现科技向善。因此,应将以人为本、公平包容、责任明确、可控可信等伦理原则深度融入人工智能研发与应用的全过程。具体而言,建立伦理审查和风险评估机制,对可能产生的伦理影响和社会后果进行前瞻性判断;推动算法的公平性研究,努力消除数据偏见和歧视;明确研发者、使用者和监管者等各方的责任,建立健全问责机制;鼓励开展人工智能伦理教育与公众讨论,提高全社会的伦理意识。

  目前,人工智能正以强大的力量塑造人类文明的新图景。唯有将安全、可靠与可控深深植入其技术基因中,使其具备强大的内在免疫系统,并辅之以技术治理这一系统工程的精心设计,才能使人工智能真正成为推动高质量发展的引擎,而非无法控制的野马。在治理逻辑与技术逻辑实现有机融合之际,一个可知、可控、可信且可持续的人工智能时代将真正来临。

  《光明日报》(2025年09月12日 11版)

正文完
 0