論文の概要: Interpretability of an Interaction Network for identifying $H
\rightarrow b\bar{b}$ jets
- arxiv url: http://arxiv.org/abs/2211.12770v1
- Date: Wed, 23 Nov 2022 08:38:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 16:17:17.286696
- Title: Interpretability of an Interaction Network for identifying $H
\rightarrow b\bar{b}$ jets
- Title(参考訳): H \rightarrow b\bar{b}$ jets 同定のための相互作用ネットワークの解釈可能性
- Authors: Avik Roy, Mark S. Neubauer
- Abstract要約: 近年、ディープニューラルネットワークに基づくAIモデルは、これらのアプリケーションの多くで人気が高まっている。
我々は、高揚した$Hto bbarb$ jetを識別するために設計されたインタラクションネットワーク(IN)モデルを調べることで、AIモデルの解釈可能性を検討する。
さらに、INモデル内の隠れレイヤの活動を、ニューラルアクティベーションパターン(NAP)ダイアグラムとして記述する。
- 参考スコア(独自算出の注目度): 4.553120911976256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariate techniques and machine learning models have found numerous
applications in High Energy Physics (HEP) research over many years. In recent
times, AI models based on deep neural networks are becoming increasingly
popular for many of these applications. However, neural networks are regarded
as black boxes -- because of their high degree of complexity it is often quite
difficult to quantitatively explain the output of a neural network by
establishing a tractable input-output relationship and information propagation
through the deep network layers. As explainable AI (xAI) methods are becoming
more popular in recent years, we explore interpretability of AI models by
examining an Interaction Network (IN) model designed to identify boosted $H\to
b\bar{b}$ jets amid QCD background. We explore different quantitative methods
to demonstrate how the classifier network makes its decision based on the
inputs and how this information can be harnessed to reoptimize the model-making
it simpler yet equally effective. We additionally illustrate the activity of
hidden layers within the IN model as Neural Activation Pattern (NAP) diagrams.
Our experiments suggest NAP diagrams reveal important information about how
information is conveyed across the hidden layers of deep model. These insights
can be useful to effective model reoptimization and hyperparameter tuning.
- Abstract(参考訳): 多変量技術と機械学習モデルは、長年にわたり高エネルギー物理学(HEP)研究に多くの応用を見出している。
近年、ディープニューラルネットワークに基づくAIモデルは、これらのアプリケーションの多くで人気が高まっている。
しかし、ニューラルネットワークはブラックボックスと見なされる -- その複雑さが高いため、ニューラルネットワークの出力を、扱いやすい入出力関係とディープネットワーク層を通じた情報伝達を確立することによって定量的に説明することが難しいことが多い。
近年、説明可能なAI(xAI)手法が普及してきているため、QCDの背景にある$H\to b\bar{b}$ジェットを識別するために設計されたインタラクションネットワーク(IN)モデルを調べ、AIモデルの解釈可能性を検討する。
分類器ネットワークが入力に基づいてどのように決定を下すか、この情報を用いてモデル作成をシンプルかつ等しく効果的に再最適化するかを示すために、異なる定量的手法を探索する。
さらに、INモデル内の隠れレイヤの活動を、ニューラルアクティベーションパターン(NAP)ダイアグラムとして記述する。
実験の結果,napダイアグラムは,深層モデルの隠れた層間での情報伝達方法に関する重要な情報を明らかにすることが示唆された。
これらの洞察は、効果的なモデル再最適化とハイパーパラメータチューニングに有用である。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - GreenLightningAI: An Efficient AI System with Decoupled Structural and
Quantitative Knowledge [0.0]
強力な、人気のあるディープニューラルネットワークのトレーニングには、非常に高い経済的および環境的コストが伴う。
この作業は、GreenLightningAIを提案することによって、根本的に異なるアプローチを取る。
新しいAIシステムは、所定のサンプルに対してシステムサブセットを選択するために必要な情報を格納する。
我々は,AIシステムを新しいサンプルで再学習する際に,構造情報を無修正で保持できることを実験的に示す。
論文 参考訳(メタデータ) (2023-12-15T17:34:11Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - A Detailed Study of Interpretability of Deep Neural Network based Top
Taggers [3.8541104292281805]
説明可能なAI(XAI)の最近の進歩により、研究者はディープニューラルネットワーク(DNN)の内部動作を探索できる。
大型ハドロン衝突型加速器(LHC)における高エネルギー陽子-陽子衝突におけるトップクォーク崩壊からのジェットの解釈可能性について検討する。
本研究は,既存のXAI手法の大きな落とし穴を明らかにし,これらのモデルの一貫性と意味のある解釈をいかに克服できるかを説明する。
論文 参考訳(メタデータ) (2022-10-09T23:02:42Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - From Boltzmann Machines to Neural Networks and Back Again [31.613544605376624]
制限ボルツマンマシン(Restricted Boltzmann Machines)は、おそらく最もよく研究されている潜在変数モデルのクラスである。
我々の結果は、$ell_infty$bounded inputの下で二層ニューラルネットワークを学習するための新しい接続に基づいている。
次に,分散仮定を使わずに,関連するネットワークのクラスに対して可能なものよりも,より優れたランタイムで教師付きRAMの自然なクラスを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-25T00:42:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。