論文の概要: Explaining, Evaluating and Enhancing Neural Networks' Learned
Representations
- arxiv url: http://arxiv.org/abs/2202.09374v1
- Date: Fri, 18 Feb 2022 19:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 21:38:30.387950
- Title: Explaining, Evaluating and Enhancing Neural Networks' Learned
Representations
- Title(参考訳): ニューラルネットワークの学習表現の説明、評価、強化
- Authors: Marco Bertolini, Djork-Arn\'e Clevert, Floriane Montanari
- Abstract要約: より効率的で効率的な表現への障害ではなく、いかに説明可能性が助けになるかを示す。
我々は,2つの新しいスコアを定義して,潜伏埋め込みの難易度と難易度を評価する。
表現学習課題の訓練において,提案したスコアを制約として採用することで,モデルの下流性能が向上することを示す。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most efforts in interpretability in deep learning have focused on (1)
extracting explanations of a specific downstream task in relation to the input
features and (2) imposing constraints on the model, often at the expense of
predictive performance. New advances in (unsupervised) representation learning
and transfer learning, however, raise the need for an explanatory framework for
networks that are trained without a specific downstream task. We address these
challenges by showing how explainability can be an aid, rather than an
obstacle, towards better and more efficient representations. Specifically, we
propose a natural aggregation method generalizing attribution maps between any
two (convolutional) layers of a neural network. Additionally, we employ such
attributions to define two novel scores for evaluating the informativeness and
the disentanglement of latent embeddings. Extensive experiments show that the
proposed scores do correlate with the desired properties. We also confirm and
extend previously known results concerning the independence of some common
saliency strategies from the model parameters. Finally, we show that adopting
our proposed scores as constraints during the training of a representation
learning task improves the downstream performance of the model.
- Abstract(参考訳): 深層学習における解釈可能性の努力は、(1)特定の下流課題の入力特徴に関する説明を抽出し、(2)モデルに制約を課すこと、しばしば予測性能を犠牲にすることに焦点を当てている。
しかし、(教師なし)表現学習と転送学習の新しい進歩は、特定の下流タスクなしでトレーニングされるネットワークのための説明フレームワークの必要性を高めている。
これらの課題に対処するために、より効率的で効率的な表現への障害ではなく、いかに説明可能性が助けになるかを示す。
具体的には,ニューラルネットワークの任意の2つの(畳み込み)層間の帰属写像を一般化する自然凝集法を提案する。
また,このような帰属関係を用いて,潜在組込みのインフォメーション性および不連続性を評価するための2つの新しいスコアを定式化する。
広範な実験により,提案するスコアは所望の特性と相関することが示された。
また, モデルパラメータからの共通給与戦略の独立性に関する既知の結果を確認し, 拡張する。
最後に,表現学習タスクのトレーニング中に提案するスコアを制約として採用することで,モデルのダウンストリームパフォーマンスが向上することを示す。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - The mechanistic basis of data dependence and abrupt learning in an
in-context classification task [0.3626013617212666]
本研究では,言語固有の特定の分布特性が,2種類の学習のトレードオフや同時出現を制御していることを示す。
インコンテキスト学習は、誘導ヘッドの突然の出現によって駆動され、その後、インウェイト学習と競合する。
注意に基づくネットワークの急激な遷移は、ICLを実現するのに必要な多層演算の特定の連鎖によって生じると提案する。
論文 参考訳(メタデータ) (2023-12-03T20:53:41Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Refining Neural Networks with Compositional Explanations [31.84868477264624]
本稿では,モデルの失敗事例に関する人為的な構成説明を収集し,学習モデルの改良を提案する。
提案手法が2つのテキスト分類タスクに有効であることを示す。
論文 参考訳(メタデータ) (2021-03-18T17:48:54Z) - A Framework to Learn with Interpretation [2.3741312212138896]
本稿では,予測モデルとその関連解釈モデルを共同で学習する新しい枠組みを提案する。
我々は,選択した隠れ層の出力を入力として取り込む,高レベル属性関数の小型辞書を求める。
学習した機能を視覚化する詳細なパイプラインも開発されている。
論文 参考訳(メタデータ) (2020-10-19T09:26:28Z) - Adversarial Training Reduces Information and Improves Transferability [81.59364510580738]
近年の研究では, 頑健性に加えて, 可逆性などの望ましい特性が期待できることが示されている。
本稿では,新たなタスクへの線形転送性の向上を図り,表現の伝達可能性とソースタスクの精度の間に新たなトレードオフが生じていることを示す。
論文 参考訳(メタデータ) (2020-07-22T08:30:16Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。