| 当前位置: 首页 > 资讯中心 > 国际认可动态 |
2026年3月6日,英国认可机构(UKAS)与德国认可机构(DAkkS)联合发布《合格评定中人工智能技术的应用》技术公告,为获得UKAS和DAkkS认可的合格评定机构(CABs)负责任地开发、部署和使用人工智能(AI)技术,提供了统一的指导性框架。
本次发布的联合技术公告为信息指引类文件,不新增或额外设定认可相关要求,旨在帮助合格评定机构识别、适配现有认可体系中与AI应用相关、以技术中立为原则制定的各项要求,且需与对应认可领域的现行标准同步使用。
首先,公告明确了合格评定机构在引入AI技术时的强制告知义务。公告明确AI技术的引入与落地需向认可机构申报重大变更。要求机构在对设备、资源、流程等作出重大变更时,尽早履行告知义务。申报内容需包含三个方面的信息:一是AI系统的简要说明,包括功能用途、训练数据/知识库、技术实现路径。二是AI系统在合格评定全流程中的具体应用环节。三是机构对AI系统的依赖程度,具体分为纯行政支持、咨询或决策辅助、决策权限委托三类场景。
其次,公告确立了AI应用环境的敏感性评估核心框架。公告明确需结合AI系统的技术特性、具体用例与应用场景,开展针对性评估,以此判定对应标准条款的适用性与落地方式。评估需覆盖三大核心维度:第一,AI系统的技术类型,需从技术层面对系统进行分析,重点说明系统任务、数据/知识库、技术实现路径,明确其对标准条款适用性的影响。第二,AI系统在合格评定流程中的应用场景,需清晰区分不影响评定决策的行政类任务,与直接影响评定结果的核心流程应用。第三,机构对AI系统的依赖程度,该维度直接决定合规要求的严格程度、人工监督机制的设置标准及系统验证的深度,依赖度越高,配套的安全保障机制越需严格。
最后,公告明确了AI应用的合规实施路径,并划定核心监管红线。在合规实施层面,要求合格评定机构以适用的认可标准(如ISO/IEC 17025、ISO/IEC 17024、ISO/IEC 17065等)为核心,结合AI系统的特性、应用环节及依赖程度,开展条款适用性分析,从组织流程与技术保障两个层面落实合规要求,包括建立人工监督机制、完善人员能力培训、配套数据安全与系统验证措施等。
在监管红线层面,公告明确两项要求:一是在当前认可框架下,合格评定决定的最终权限不得委托给AI系统。二是若现行标准明确应由具备资质的人员作出决定,那么以自主AI决策系统替代相关人员履职的行为将被严格禁止。合格评定机构需在AI技术落地前,提前识别此类约束,确保AI应用始终符合认可框架要求。
如需了解更多信息,请参考DAkkS网站。