論文の概要: Explainable AI for ML jet taggers using expert variables and layerwise
relevance propagation
- arxiv url: http://arxiv.org/abs/2011.13466v3
- Date: Wed, 12 May 2021 19:38:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:41:59.686678
- Title: Explainable AI for ML jet taggers using expert variables and layerwise
relevance propagation
- Title(参考訳): 専門家変数と階層的関連伝搬を用いたMLジェットタグの説明可能なAI
- Authors: Garvita Agarwal, Lauren Hay, Ia Iashvili, Benjamin Mannix, Christine
McLean, Margaret Morris, Salvatore Rappoccio, Ulrich Schubert
- Abstract要約: ジェットサブ構造タグ付け技術のディープニューラルネットワーク(DNN)から、意思決定情報を抽出し、理解するためのフレームワークが提示される。
一般的な方法は、入力を拡大する専門家変数("eXpert AUGmented"変数またはXAUG変数)を提供し、ネットワークにレイヤワイド伝搬(LRP)を適用することである。
ネットワークをXAUG変数を追加・追加せずに比較した結果,XAUG変数は動作の解釈に利用でき,低レベル特徴と組み合わせて識別能力を高めることができ,場合によっては分類器の動作を完全に捉えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A framework is presented to extract and understand decision-making
information from a deep neural network (DNN) classifier of jet substructure
tagging techniques. The general method studied is to provide expert variables
that augment inputs ("eXpert AUGmented" variables, or XAUG variables), then
apply layerwise relevance propagation (LRP) to networks both with and without
XAUG variables. The XAUG variables are concatenated with the intermediate
layers after network-specific operations (such as convolution or recurrence),
and used in the final layers of the network. The results of comparing networks
with and without the addition of XAUG variables show that XAUG variables can be
used to interpret classifier behavior, increase discrimination ability when
combined with low-level features, and in some cases capture the behavior of the
classifier completely. The LRP technique can be used to find relevant
information the network is using, and when combined with the XAUG variables,
can be used to rank features, allowing one to find a reduced set of features
that capture part of the network performance. In the studies presented, adding
XAUG variables to low-level DNNs increased the efficiency of classifiers by as
much as 30-40\%. In addition to performance improvements, an approach to
quantify numerical uncertainties in the training of these DNNs is presented.
- Abstract(参考訳): ジェットサブストラクチャタグ手法のディープニューラルネットワーク(DNN)分類器から、意思決定情報を抽出し、理解する枠組みを提示する。
一般的な方法は、入力を拡大する専門家変数("eXpert AUGmented"変数またはXAUG変数)を提供し、その後、XAUG変数の有無にかかわらず、ネットワークに階層的関連性伝搬(LRP)を適用することである。
XAUG変数は、ネットワーク固有の操作(畳み込みや繰り返しなど)の後、中間層と連結され、ネットワークの最終層で使用される。
ネットワークをXAUG変数を追加・追加せずに比較した結果、XAUG変数は分類器の動作を解釈したり、低レベルの特徴と組み合わせて識別能力を高めることができ、場合によっては分類器の動作を完全に捉えることができる。
LRPテクニックは、ネットワークが使用している関連する情報を見つけるために使用することができ、XAUG変数と組み合わせると、機能のランク付けに使用することができる。
その結果, 低レベルDNNへのXAUG変数の追加は, 分類器の効率を最大30~40%向上させた。
性能改善に加えて,これらのDNNのトレーニングにおける数値的不確実性を定量化する手法を提案する。
関連論文リスト
- Leveraging SO(3)-steerable convolutions for pose-robust semantic segmentation in 3D medical data [2.207533492015563]
球面調和に基づく同変ボクセル畳み込みを用いたセグメンテーションネットワークを新たに提案する。
これらのネットワークは、トレーニング中に見えないデータポーズに対して堅牢であり、トレーニング中にローテーションベースのデータ拡張を必要としない。
MRI脳腫瘍におけるセグメンテーション性能と健常な脳構造セグメンテーション課題について検討した。
論文 参考訳(メタデータ) (2023-03-01T09:27:08Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Exploiting Explainable Metrics for Augmented SGD [43.00691899858408]
最適化下での学習が実際にどのように機能するか、また、特定の戦略が他の方法よりも優れている理由について、未解決の疑問がいくつかある。
ネットワーク層内の冗長な情報を計測する新しい説明可能性指標を提案する。
次に、これらの指標を利用して、各レイヤの学習率を適応的に調整し、一般化性能を向上させることにより、グラディエント・ディフレッシュ(SGD)を増大させる。
論文 参考訳(メタデータ) (2022-03-31T00:16:44Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - An evidential classifier based on Dempster-Shafer theory and deep
learning [6.230751621285322]
Dempster-Shafer(DS)理論に基づく新しい分類システムと、集合値分類のための畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
画像認識,信号処理,セマンティック-リレーションシップ分類タスクに関する実験では,深部CNN,DS層,期待されるユーティリティ層の組み合わせにより,分類精度の向上が図られている。
論文 参考訳(メタデータ) (2021-03-25T01:29:05Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Regularizing Deep Networks with Semantic Data Augmentation [44.53483945155832]
従来の手法を補完する新しい意味データ拡張アルゴリズムを提案する。
提案手法はディープネットワークが線形化特徴の学習に有効であるという興味深い性質に着想を得たものである。
提案した暗黙的セマンティックデータ拡張(ISDA)アルゴリズムは,新たなロバストCE損失を最小限に抑える。
論文 参考訳(メタデータ) (2020-07-21T00:32:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。