論文の概要: SOInter: A Novel Deep Energy Based Interpretation Method for Explaining
Structured Output Models
- arxiv url: http://arxiv.org/abs/2202.09914v1
- Date: Sun, 20 Feb 2022 21:57:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:56:47.443696
- Title: SOInter: A Novel Deep Energy Based Interpretation Method for Explaining
Structured Output Models
- Title(参考訳): sointer:構造化出力モデルを説明するための新しい深層エネルギーに基づく解釈法
- Authors: S. Fatemeh Seyyedsalehi, Mahdieh Soleymani, Hamid R. Rabiee
- Abstract要約: 本稿では,構造化出力モデルの振る舞いを説明する新しい解釈手法を提案する。
出力の1つを対象とし、入力空間の各局所性における目標を決定するために構造化モデルが利用する最も重要な特徴を見つけ出そうとする。
- 参考スコア(独自算出の注目度): 6.752231769293388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel interpretation technique to explain the behavior of
structured output models, which learn mappings between an input vector to a set
of output variables simultaneously. Because of the complex relationship between
the computational path of output variables in structured models, a feature can
affect the value of output through other ones. We focus on one of the outputs
as the target and try to find the most important features utilized by the
structured model to decide on the target in each locality of the input space.
In this paper, we assume an arbitrary structured output model is available as a
black box and argue how considering the correlations between output variables
can improve the explanation performance. The goal is to train a function as an
interpreter for the target output variable over the input space. We introduce
an energy-based training process for the interpreter function, which
effectively considers the structural information incorporated into the model to
be explained. The effectiveness of the proposed method is confirmed using a
variety of simulated and real data sets.
- Abstract(参考訳): 本稿では,入力ベクトルから出力変数の集合へのマッピングを同時に学習する構造化出力モデルの振る舞いを説明する新しい解釈手法を提案する。
構造化モデルにおける出力変数の計算パス間の複雑な関係のため、特徴は他のモデルによる出力の値に影響を与える可能性がある。
我々は、出力の1つを目標とし、入力空間の各局所性において目標を決定するために構造化モデルによって使用される最も重要な特徴を見つけ出そうとする。
本稿では,任意の構造化出力モデルがブラックボックスとして利用可能であると仮定し,出力変数間の相関を考慮すれば説明性能が向上することを示す。
目標は、入力空間上のターゲット出力変数のインタプリタとして関数をトレーニングすることである。
本稿では,インタプリタ関数に対するエネルギーベーストレーニングプロセスを導入し,モデルに組み込まれた構造情報を効果的に考察する。
提案手法の有効性は,様々なシミュレーションデータと実データを用いて確認した。
関連論文リスト
- Unveiling Transformer Perception by Exploring Input Manifolds [41.364418162255184]
本稿では,Transformerモデルの入力空間における等価クラス探索法を提案する。
提案手法は、トランスフォーマーアーキテクチャの内部層を入力多様体の逐次変形として記述する音響数学的理論に基づいている。
論文 参考訳(メタデータ) (2024-10-08T13:20:31Z) - Counting in Small Transformers: The Delicate Interplay between Attention and Feed-Forward Layers [16.26331213222281]
アーキテクチャ設計の選択がトランスフォーマーが実装し学習できるソリューションの空間にどのように影響するかを検討する。
小型変圧器が理論的に実装できる2つの異なる計数戦略を特徴付ける。
簡単な設定であっても、モデル設計のわずかなバリエーションは、トランスフォーマーが学習するソリューションに大きな変化をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-07-16T09:48:10Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Relational Local Explanations [11.679389861042]
我々は,入力変数間の関係解析に基づく,新しいモデルに依存しない,置換に基づく特徴帰属アルゴリズムを開発した。
機械学習のモデル決定とデータについて、より広範な洞察を得ることができます。
論文 参考訳(メタデータ) (2022-12-23T14:46:23Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Efficient Sub-structured Knowledge Distillation [52.5931565465661]
定式化においてよりシンプルで,既存のアプローチよりもはるかに効率的にトレーニングできるアプローチを提案する。
教師モデルから学生モデルへの知識の伝達は、出力空間全体ではなく、すべてのサブ構造上の予測を局所的に一致させることで行う。
論文 参考訳(メタデータ) (2022-03-09T15:56:49Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z) - Learning Latent Causal Structures with a Redundant Input Neural Network [9.044150926401574]
入力が出力を引き起こすことは知られており、これらの因果関係は潜伏変数の集合の因果関係によって符号化される。
我々は、改良されたアーキテクチャと正規化された目的関数を備えた冗長入力ニューラルネットワーク(RINN)と呼ばれるディープラーニングモデルを開発する。
一連のシミュレーション実験により、RINN法は入力変数と出力変数の間の潜伏因果構造を回復することに成功した。
論文 参考訳(メタデータ) (2020-03-29T20:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。