論文の概要: SOInter: A Novel Deep Energy Based Interpretation Method for Explaining
Structured Output Models
- arxiv url: http://arxiv.org/abs/2202.09914v1
- Date: Sun, 20 Feb 2022 21:57:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:56:47.443696
- Title: SOInter: A Novel Deep Energy Based Interpretation Method for Explaining
Structured Output Models
- Title(参考訳): sointer:構造化出力モデルを説明するための新しい深層エネルギーに基づく解釈法
- Authors: S. Fatemeh Seyyedsalehi, Mahdieh Soleymani, Hamid R. Rabiee
- Abstract要約: 本稿では,構造化出力モデルの振る舞いを説明する新しい解釈手法を提案する。
出力の1つを対象とし、入力空間の各局所性における目標を決定するために構造化モデルが利用する最も重要な特徴を見つけ出そうとする。
- 参考スコア(独自算出の注目度): 6.752231769293388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel interpretation technique to explain the behavior of
structured output models, which learn mappings between an input vector to a set
of output variables simultaneously. Because of the complex relationship between
the computational path of output variables in structured models, a feature can
affect the value of output through other ones. We focus on one of the outputs
as the target and try to find the most important features utilized by the
structured model to decide on the target in each locality of the input space.
In this paper, we assume an arbitrary structured output model is available as a
black box and argue how considering the correlations between output variables
can improve the explanation performance. The goal is to train a function as an
interpreter for the target output variable over the input space. We introduce
an energy-based training process for the interpreter function, which
effectively considers the structural information incorporated into the model to
be explained. The effectiveness of the proposed method is confirmed using a
variety of simulated and real data sets.
- Abstract(参考訳): 本稿では,入力ベクトルから出力変数の集合へのマッピングを同時に学習する構造化出力モデルの振る舞いを説明する新しい解釈手法を提案する。
構造化モデルにおける出力変数の計算パス間の複雑な関係のため、特徴は他のモデルによる出力の値に影響を与える可能性がある。
我々は、出力の1つを目標とし、入力空間の各局所性において目標を決定するために構造化モデルによって使用される最も重要な特徴を見つけ出そうとする。
本稿では,任意の構造化出力モデルがブラックボックスとして利用可能であると仮定し,出力変数間の相関を考慮すれば説明性能が向上することを示す。
目標は、入力空間上のターゲット出力変数のインタプリタとして関数をトレーニングすることである。
本稿では,インタプリタ関数に対するエネルギーベーストレーニングプロセスを導入し,モデルに組み込まれた構造情報を効果的に考察する。
提案手法の有効性は,様々なシミュレーションデータと実データを用いて確認した。
関連論文リスト
- A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Relational Local Explanations [11.679389861042]
我々は,入力変数間の関係解析に基づく,新しいモデルに依存しない,置換に基づく特徴帰属アルゴリズムを開発した。
機械学習のモデル決定とデータについて、より広範な洞察を得ることができます。
論文 参考訳(メタデータ) (2022-12-23T14:46:23Z) - Interpretability with full complexity by constraining feature
information [1.52292571922932]
解釈可能性(Interpretability)は、機械学習の課題だ。
我々は、新しい角度から解釈可能性にアプローチする:モデルの複雑さを制限することなく、特徴に関する情報を制約する。
近似モデルのスペクトルから洞察を抽出する枠組みを開発する。
論文 参考訳(メタデータ) (2022-11-30T18:59:01Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Efficient Sub-structured Knowledge Distillation [52.5931565465661]
定式化においてよりシンプルで,既存のアプローチよりもはるかに効率的にトレーニングできるアプローチを提案する。
教師モデルから学生モデルへの知識の伝達は、出力空間全体ではなく、すべてのサブ構造上の予測を局所的に一致させることで行う。
論文 参考訳(メタデータ) (2022-03-09T15:56:49Z) - Inductive Biases and Variable Creation in Self-Attention Mechanisms [25.79946667926312]
この研究は自己アテンション加群の帰納バイアスの理論解析を提供する。
私たちの焦点は、どの関数と長距離依存関係を表現したいかを明確に決めることです。
我々の主な結果は、有界ノルムトランスフォーマー層がスパース変数を生成することを示している。
論文 参考訳(メタデータ) (2021-10-19T16:36:19Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z) - Learning Latent Causal Structures with a Redundant Input Neural Network [9.044150926401574]
入力が出力を引き起こすことは知られており、これらの因果関係は潜伏変数の集合の因果関係によって符号化される。
我々は、改良されたアーキテクチャと正規化された目的関数を備えた冗長入力ニューラルネットワーク(RINN)と呼ばれるディープラーニングモデルを開発する。
一連のシミュレーション実験により、RINN法は入力変数と出力変数の間の潜伏因果構造を回復することに成功した。
論文 参考訳(メタデータ) (2020-03-29T20:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。