国际社会正在多途径解决人工智能安全问题(全球热点)

来源:海外人民网 图:2025年11月6日,观众参观2025世界互联网大会“互联网之光”展览。新华社黄宗智供图 从联合国成立独立国际人工智能科学小组和全球人工智能治理对话机制,到近期各国出台密集监管、发布针对人工智能主体的安全风险警告,国际社会正在通过多种方式探索人工智能安全治理。国际社会人工智能治理的渐进特点是什么?进入2026年,人工智能治理将面临哪些新挑战?当前新兴的治理趋势是什么?本报聚焦这些问题,请专家来解读。人工智能治理频出 随着人工智能技术的快速迭代,国际社会最近,围绕“治理什么”和“如何治理”进入了新的探索阶段。从多边机制到各国引入一般立法和基于情景的特殊立法,一些进展正在引起人们的关注。最近,联合国大会任命了 40 名独立国际人工智能科学小组成员,其中包括机器学习、数据治理、公共卫生和人权领域的专家。联合国秘书长安东尼奥·古特雷斯发表声明称,2025年8月,联合国大会通过人工智能全球治理决议,正式建立人工智能问题独立国际科学家和人工智能治理全球对话机制。科学委员会将负责评估人工智能的风险、机遇和影响。雷森欧洲理事会最终就简化部分人工智能监管规则的提案达成一致。这主要包括简化欧盟人工智能监管框架、减轻企业合规负担以及禁止利用人工智能生成色情内容等。欧洲理事会表示,该提案是欧盟委员会“全面简化一揽子计划”立法计划的一部分,该计划协调了欧盟的一些人工智能法律。与此同时,美国多个州也针对特定场景出台了法律。据美国媒体Inses报道,纽约州立法机关宣布AI聊天机器人将用于法律和医疗案件。该公司计划出台立法,禁止聊天机器人提供建议,并允许用户起诉犯有违规行为的聊天机器人运营商。据美国《新闻周刊》网站发表的报道称,美国许多州都在预计今年将颁布法律,要求补充人工智能系统遵守安全披露义务并建立保护机制。许多国家最近也颁布了与人工智能相关的法律和治理措施。 3月1日,越南人工智能法正式生效。外媒报道称,该法是东南亚首个通过专门立法建立的相对全面的人工智能监管框架。此外,1月22日,新加坡在瑞士达沃斯世界经济论坛期间宣布了人工智能代理治理示范框架,以应对引入人工智能代理后的潜在风险。同一天,韩国还正式宣布实施《人工智能发展和可信基础设施建设基本法》,要求企业和开发商在“高风险”金融领域应用人工智能模型时采取严格措施。田地。中国现代国际关系研究院技术与网络安全研究所所长、研究员李岩在接受本报记者采访时表示,当前人工智能国际治理仍处于早期探索阶段,这符合人工智能技术和应用的目标。注意节奏。从技术演进来看,AI仍处于快速迭代之中,其技术路径和应用场景还远未达到完全稳定、清晰的成熟阶段。这意味着早期治理面临“科林里奇困境”和“节奏问题”。换句话说,如果没有正确理解监管的时机和强度,过早和过度的紧缩可能会扼杀创新并限制产业发展。否则可能会阻碍有效的风险管控或显着增加治理成本和难度。 “在这个圣时代不同,各国人工智能治理呈现出明显的去中心化、异质化特征。从治理路径来看,尚无统一的模式。各国都在寻找适合本国国情和发展定位的治理模式,并初步形成了“监管第一”、“发展优先”、“发展与安全均衡”等差异化治理目标,形成治理路径。复旦大学发展研究院副教授、全球人工智能创新治理研究中心研究员蒋天骄告诉记者,当前,各国对于人工智能治理路径的政策导向不同。虽然路径多种多样,但如何在不削弱创新活力的情况下产生安全回报,平衡发展与安全的关系,正成为各国的共同追求。推动人工智能治理。 “法律跟不上法规”的担忧引发了人们对2026年人工智能治理面临的挑战将变得日益复杂和多样化的担忧。从“毒物”人工智能体“到各种应用场景的风险,现有的治理框架面临许多新的挑战。今年以来人工智能体OpenClaw(俗称“龙虾”)的快速发展,再次引发人们对“法律发展跟不上代码步伐”的担忧。与包括哈佛大学和麻省理工学院在内的多家机构合作的“混沌智能”研究报告,该代理在模拟真实世界企业的操作环境中部署,结果在短短两周内创建并记录了 11 个关键安全漏洞案例,报告指出,超过 60% 的公司缺乏有效关闭失控行为者的能力。网络安全风险再上新台阶,智能代理引发了人们对数据安全、隐私保护、网络攻击、恶意利用等连锁风险的更多担忧。这些风险场景超出了传统的治理框架。通过进行攻击、精准欺诈、打造黑白产业链,迫切需要一个从数据到代理、从界定责任到落实执法的全面治理框架。香港中文大学信息工程学院副教授仇亚金告诉记者,人工智能的第一部法律主要集中在模型本身、如何处理数据以及在什么场景下使用。当时负责的实体比较单一,主要是provmodel查看器。然而,随着技术的发展和代理的出现,今天的人工智能正在不再局限于单一模型,而是逐渐演变成涵盖模型提供者、工具开发者、应用程序开发者和最终采用者(例如云服务提供商)等多种角色的复杂生态系统。许多公司和组织都参与其中。 “在这种背景下,责任链变得混乱。”周亚仁表示,在一个复杂的系统中,不同的角色应该承担哪些责任,成为以往法律和相关治理措施无法预见的问题。虽然立法过程可能会尝试抽象地定义模型提供者、应用程序开发者和实施者等角色,但人工智能生态系统正在迅速发展,抽象的角色分类当前的角色分类可能很快就会被新的商业格式所颠覆。法律总是滞后于应用生态的演进。这是不可避免的现实,也是当今人工智能治理面临的显着挑战。李岩表示,2026年,核心问题人工智能治理将从技术层面转向更全面的规则制定和指挥层面,这将带来三个尚未解决的挑战。一是发展与安全的平衡问题。敏捷的技术迭代和缓慢的治理正在造成严重的紧张局势。 “治理不符合规则”是各国面临的共同问题。监管机构面临的最大考验是如何区分创新的好处与算法黑匣子、数据泄露和深度造假的风险。二是缺乏敏捷治理能力。人工智能技术正在跨地区、跨环境快速传播,超越了传统政府监控的响应速度。跨境数据流动和算法模型是无国界的,这也导致各国无法自行解决问题。第三,权力和责任的界定模糊。治理之道在于算法问责、平台合规义务、整体人工智能风险规划等核心问题仍缺乏全球认可的基准。对话与合作仍然至关重要。尽管风险挑战频发,但各国在“扫描应对”过程中涌现出许多创新治理实践。其中,测试环境作为灵活的监管工具正在被越来越多的国家引入监管。欧盟人工智能法明确要求建立人工智能监管测试机制。西班牙于2023年11月牵头启动了欧盟首个人工智能监管沙盒试点。目前,欧洲多国也在积极推动相关研究。在中国,2025年12月,国家网信办起草了《人工智能拟人互动服务管理暂行办法(征求意见稿)》,首次明确了“人工智能拟人互动服务管理暂行办法(征求意见稿)”。姜天骄表示,在欧盟、英国、新加坡等国家,人工智能监管沙盒正在从实验性工具升级为长期制度安排。这种机制为自动驾驶、人工智能医疗等特定领域在受控环境下测试技术应用提供了法律和制度框架,也可以对技术风险划定合理界限。基于场景的立法也在迅速增长,例如,美国针对自动驾驶和深度造假的责任制定了单独的法律。在中国,今年的两次全国性会议就特别立法提案进行了广泛讨论,例如人工智能生成内容的版权所有权。和算法歧视。专家表示,不同的治理路径并不意味着大家都走自己的路,而是需要对话与合作。他指出,这对世界极其重要。 “人工智能作为一项新兴技术,自然具有跨国界、跨领域的特点。一国企业开发的模型可以在全球范围内使用。如果地区之间的立法差异太大,服务客户的话,企业的合规成本就会飙升。因此,寻求对话与合作至关重要。同时,人工智能、美国提出的很多问题都需要跨境合作。比如,如何惩罚deepfakes跨境传播?如何解决?干扰其他国家选举的虚假信息?我们如何防止人工智能驱动的网络攻击?”周亚金说道。李岩表示,当前许多国家都在探索自愿性标准与跨境技术标准的融合。历史经验表明,分享最佳实践、相互学习是解决治理困境的关键。因此,国际对话至关重要。只有通过多边机制架起沟通桥梁,弥合各国监管理解差距,才能推动形成兼顾国情和全球性问题的治理规则。”“全球人工智能治理虽然达成了原则共识,但离稳定的治理体系还很远。”李岩表示,在此背景下,中国提出了《全球人工智能治理倡议》,主张“秉持共同、综合、合作、可持续的安全观,坚持发展与发展并重的原则”。安全,通过对话和合作凝聚共识。”为国际社会提供了具有重要参考价值的中国方案。从全球角度看,人工智能治理的国际对话日益紧迫。蒋天骄表示,世界正面临“双输”的局面,无论是深度造假、网络攻击,还是更严重的核生化恐怖袭击,任何国家的监管缺失都可能成为全球风险的根源。因此,各方迫切需要围绕各自的监管法律和治理标准进行沟通。他表示,有必要与其他组织进行对话,在人工智能安全等关键问题上协调政策。 (记者林志涵)《人民日报海外版》(2026年3月21日第6页)
特别提示:以上内容(包括图片和视频,如有)为上传发布由自有媒体平台“网易号”的用户进行转发。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注