IF=31.068!Nat. Rev. Phys.概述可解释机器学习在粒子物理学中的应用! 2023年10月13日 上午7:59 • 未全平台发布, 顶刊 • 阅读 10 机器学习(ML)方法在粒子物理学中具有广泛应用,但没有可解释性就不能保证算法学习的结果是正确/稳健的。开发可解释的ML/AI方法是为了消除多变量分析的黑箱问题,然而物理学中可解释AI的曙光主要归结为解释神经网络如何分析实验数据,而不是转向更可解释的ML框架,这有助于更好地理解ML模型的动力学并在随后的分析中建立信心。 在此,德国电子同步加速器(DESY)研究中心/洪堡大学Ayan Paul等人概述了如何将可解释性引入粒子物理学中常用的ML方法。其中,用于对科学数据中的非线性关系进行建模的两个最常见的ML框架是决策树和神经网络。决策树易于解释,但不如神经网络强大。相反,在给定噪声数据的情况下,神经网络的泛化效果要好得多,但其参数无法提供任何关于输入变量与输出变量如何连接的洞察力。 此外,处理更复杂的数据集需要增加模型的复杂性,但这样做会导致其可解释性下降。为了重新引入训练模型的可解释性元素,研究人员提出了事后方法来检查ML模型并尝试找出做出决策的原因。这些方法大致分为两类:(1)根据输入变量解释每个结果的局部方法;(2)全局方法,将模型解释为一个整体并确定整体“变量重要性”,从而构建输入变量在确定输出中的重要性层次结构。 图1. ML模型准确性-可解释性之间的权衡 进一步,作者以测量希格斯粒子与底部夸克的汤川耦合为例说明了可解释分析在粒子物理学中的应用。这种测量面临的挑战是从运动学相似的背景中提取极小的信号,而基于运动学切割的传统方法无法分离这些信号。ML(增强决策树,BDT)模型使任务更可行,但代价是分析不透明。然而,动力学可通过使用Shapley值来解释BDT并将重要性层次分配给变量来理解。此外,本文中关注的是变量重要性方面,但更有挑战性的主题如误差传播、模型鲁棒性和建立物理模型也需要关注。 作者认为:贝叶斯推理和ML的协同作用可实现对模型参数和预测的误差估计;模型鲁棒性的理解可帮助避免在模型训练的参数空间附近的错误预测,进而实现更好的泛化;建立与物理相关的模型可建立更可靠的系统动力学模型,从而预测控制系统的基本规律。总之,本文提供了一个初学者指南,用于构建粒子物理领域可解释的多变量分析模型。 图2. 粒子物理学领域可解释性分析的简单举例 Lessons on interpretable machine learning from particle physics, Nature Reviews Physics 2022. DOI: 10.1038/s42254-022-00456-0 原创文章,作者:v-suan,如若转载,请注明来源华算科技,注明出处:https://www.v-suan.com/index.php/2023/10/13/303f2ebf27/ 机器学习 赞 (0) 0 生成海报 微信扫码分享 相关推荐 中山大学NML:Mo-S桥接位点提高量子效率,实现高效光催化CO2还原 2023年11月16日 张强/马维刚ACS Nano:锂离子电池二维材料的可用性识别框架和高通量筛选 2023年10月15日 北航李典森,最新AM!钠离子电池寿命新突破! 2024年1月18日 松山湖实验室/港城大/中南AEM:吡嗪和吡啶胺单元的共价有机骨架(COF)用于水系钙离子电池负极 2023年12月14日 中科大余彦ACS Nano: 通过与Fe合金化调控Ni的电子结构,用于Na-S电池高动力学硫正极 2023年10月26日 刘庆华/廉世勋/苏徽Nature子刊:MnO2中Ir中心拉伸应变,助力构建高活性和稳定性PEMWE 2024年1月22日