2024年10月16日,美国核管会(NRC)发布报告称,该机构已与美国非营利性机构——西南研究所(Southwest Research Institute)签署合同,委托后者进行一项分析,了解持证单位在利用人工智能(AI)运营核电厂时,其规章制度中存在哪些漏洞。报告指出,NRC应设计一个“故障安全”协议,以便在AI出现异常时将核电厂的控制权交还给人类。
报告强调,AI系统极有可能产生异常输出,因此有必要建立一个故障安全系统。报告还探讨了在检测到错误时切断AI对电厂系统的访问,并将控制权交还给人类操作员的可能性。分析发现,NRC的多数操作规程都可以包含一名人类操作员或AI操作员,但仍有一系列需要解决的问题。
报告指出,法规要求电厂部分自动设备需具备手动控制功能,是否应在安全系统和控制系统中使用的AI系统中提出类似的要求?同时,位于设施内的自主控制系统,以及其他位置的通信控制系统等,应要求具备何种防护措施?
现实中,AI经常会提供错误或误导性信息,有时甚至是完全捏造的信息,这种现象或是由于训练AI应用时的数据限制或及其学习模型中的偏差等因素造成的。
报告称,核电厂持证单位部分行为或超出NRC规定的界限,包括允许AI接管明确规定属于人类职责的功能。分析发现,与AI技术发生监管冲突的主要可能性在于那些明确或隐晦地规定了人类行动的法规,而这些行动可以由AI系统代替执行。
报告补充称,NRC现行的法规也有可能出现漏洞。法规规定了由人类实施的行动,但这些行动也可以通过AI软件来完成。
报告称,NRC法规中另一类常见的漏洞涉及在特殊计算中使用AI,这主要是由于在如何评估计算方面没有专门针对AI的指南。通常,法规并不会说明执行计划必须由人类或AI执行,只有少数例外。例如,在评估应急堆芯冷却系统和断裂韧性等非常严重的工况时,只能由人类进行相关操作。
需要新的NRC指南
报告建议NRC制定新的指导文件,说明需要进行哪些类型的测试和记录,以增强对使用AI技术进行计算和预测的信心。此外,报告还建议NRC部署一个试点项目,专门用于评估现有核电厂持证单位使用AI技术进行的计算。