論文の概要: A Detailed Study of Interpretability of Deep Neural Network based Top
Taggers
- arxiv url: http://arxiv.org/abs/2210.04371v4
- Date: Wed, 5 Jul 2023 17:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 18:30:42.417461
- Title: A Detailed Study of Interpretability of Deep Neural Network based Top
Taggers
- Title(参考訳): ディープニューラルネットワークを用いたトップタガーの解釈可能性に関する詳細な研究
- Authors: Ayush Khot, Mark S. Neubauer, Avik Roy
- Abstract要約: 説明可能なAI(XAI)の最近の進歩により、研究者はディープニューラルネットワーク(DNN)の内部動作を探索できる。
大型ハドロン衝突型加速器(LHC)における高エネルギー陽子-陽子衝突におけるトップクォーク崩壊からのジェットの解釈可能性について検討する。
本研究は,既存のXAI手法の大きな落とし穴を明らかにし,これらのモデルの一貫性と意味のある解釈をいかに克服できるかを説明する。
- 参考スコア(独自算出の注目度): 3.8541104292281805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent developments in the methods of explainable AI (XAI) allow researchers
to explore the inner workings of deep neural networks (DNNs), revealing crucial
information about input-output relationships and realizing how data connects
with machine learning models. In this paper we explore interpretability of DNN
models designed to identify jets coming from top quark decay in high energy
proton-proton collisions at the Large Hadron Collider (LHC). We review a subset
of existing top tagger models and explore different quantitative methods to
identify which features play the most important roles in identifying the top
jets. We also investigate how and why feature importance varies across
different XAI metrics, how correlations among features impact their
explainability, and how latent space representations encode information as well
as correlate with physically meaningful quantities. Our studies uncover some
major pitfalls of existing XAI methods and illustrate how they can be overcome
to obtain consistent and meaningful interpretation of these models. We
additionally illustrate the activity of hidden layers as Neural Activation
Pattern (NAP) diagrams and demonstrate how they can be used to understand how
DNNs relay information across the layers and how this understanding can help to
make such models significantly simpler by allowing effective model
reoptimization and hyperparameter tuning. These studies not only facilitate a
methodological approach to interpreting models but also unveil new insights
about what these models learn. Incorporating these observations into augmented
model design, we propose the Particle Flow Interaction Network (PFIN) model and
demonstrate how interpretability-inspired model augmentation can improve top
tagging performance.
- Abstract(参考訳): 説明可能なAI(XAI)の手法の最近の進歩により、研究者はディープニューラルネットワーク(DNN)の内部動作を調べ、入力と出力の関係に関する重要な情報を明らかにし、データが機械学習モデルとどのように結びつくかを理解することができる。
本稿では,大型ハドロン衝突型加速器(LHC)における高エネルギー陽子-陽子衝突におけるトップクォーク崩壊から発生するジェットの同定を目的としたDNNモデルの解釈可能性について検討する。
我々は既存のトップタガーモデルのサブセットをレビューし、どの機能がトップジェットを特定する上で最も重要な役割を担っているかを特定するために異なる定量的手法を検討する。
また, 特徴量の違いによる特徴量の重要性, 特徴間の相関が説明可能性に与える影響, 潜在空間表現のエンコード方法, および物理的に意味のある量との相関について検討した。
本研究は,既存のXAI手法の大きな落とし穴を明らかにし,これらのモデルの一貫性と意味のある解釈をいかに克服できるかを説明する。
さらに、隠れたレイヤのアクティビティをニューラルアクティベーションパターン(NAP)ダイアグラムとして説明し、DNNがレイヤー間でどのように情報を中継するか、この理解がモデルの再最適化とハイパーパラメータチューニングを効果的に可能にし、これらのモデルを大幅に単純化するのにどのように役立つかを示す。
これらの研究は、モデル解釈の方法論的アプローチを促進するだけでなく、モデルが何を学ぶかについての新しい洞察を明らかにする。
これらの観測結果を拡張モデル設計に組み込んでPFINモデルを提案し,解釈可能性にインスパイアされたモデル拡張によってトップタグ付け性能が向上することを示す。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Enhancing Dynamical System Modeling through Interpretable Machine
Learning Augmentations: A Case Study in Cathodic Electrophoretic Deposition [0.8796261172196743]
本稿では,物理システムのモデリング向上を目的とした包括的データ駆動フレームワークを提案する。
実証的応用として,電顕的電気泳動沈着(EPD)のモデル化を追求する。
論文 参考訳(メタデータ) (2024-01-16T14:58:21Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Experimental Observations of the Topology of Convolutional Neural
Network Activations [2.4235626091331737]
トポロジカル・データ解析は、複雑な構造のコンパクトでノイズ・ロバストな表現を提供する。
ディープニューラルネットワーク(DNN)は、モデルアーキテクチャによって定義された一連の変換に関連する数百万のパラメータを学習する。
本稿では,画像分類に使用される畳み込みニューラルネットワークの解釈可能性に関する知見を得る目的で,TDAの最先端技術を適用した。
論文 参考訳(メタデータ) (2022-12-01T02:05:44Z) - Interpretability of an Interaction Network for identifying $H
\rightarrow b\bar{b}$ jets [4.553120911976256]
近年、ディープニューラルネットワークに基づくAIモデルは、これらのアプリケーションの多くで人気が高まっている。
我々は、高揚した$Hto bbarb$ jetを識別するために設計されたインタラクションネットワーク(IN)モデルを調べることで、AIモデルの解釈可能性を検討する。
さらに、INモデル内の隠れレイヤの活動を、ニューラルアクティベーションパターン(NAP)ダイアグラムとして記述する。
論文 参考訳(メタデータ) (2022-11-23T08:38:52Z) - Entity-Conditioned Question Generation for Robust Attention Distribution
in Neural Information Retrieval [51.53892300802014]
教師付きニューラル情報検索モデルでは,通過トークンよりも疎注意パターンを学習することが困難であることを示す。
目的とする新しい合成データ生成手法を用いて、与えられた通路内の全てのエンティティに対して、より均一で堅牢な参加をニューラルIRに教える。
論文 参考訳(メタデータ) (2022-04-24T22:36:48Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Influence Tuning: Demoting Spurious Correlations via Instance
Attribution and Instance-Driven Updates [26.527311287924995]
インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
制御された設定では、インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-07T06:59:46Z) - This looks more like that: Enhancing Self-Explaining Models by
Prototypical Relevance Propagation [17.485732906337507]
本稿では,自己説明型ネットワークであるProtoPNetのアーティファクトのスペクトルの存在下でのケーススタディを示す。
より正確なモデル認識説明を生成するための新しい手法を提案する。
クリーンなデータセットを得るために,アーティファクト画像を分離するためのマルチビュークラスタリング戦略を提案する。
論文 参考訳(メタデータ) (2021-08-27T09:55:53Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。