論文の概要: Is Attention Interpretation? A Quantitative Assessment On Sets
- arxiv url: http://arxiv.org/abs/2207.13018v1
- Date: Tue, 26 Jul 2022 16:25:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:11:56.266444
- Title: Is Attention Interpretation? A Quantitative Assessment On Sets
- Title(参考訳): 注意の解釈は?
集合に関する定量的評価
- Authors: Jonathan Haab and Nicolas Deutschmann and Maria Rodr\'iguez Mart\'inez
- Abstract要約: 集合機械学習の文脈における注意の解釈可能性について検討する。
注意分布は、個々のインスタンスの相対的な重要性を反映していることが多い。
我々は、注意に基づく説明を誤解させるリスクを最小限に抑えるためにアンサンブルを使うことを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The debate around the interpretability of attention mechanisms is centered on
whether attention scores can be used as a proxy for the relative amounts of
signal carried by sub-components of data. We propose to study the
interpretability of attention in the context of set machine learning, where
each data point is composed of an unordered collection of instances with a
global label. For classical multiple-instance-learning problems and simple
extensions, there is a well-defined "importance" ground truth that can be
leveraged to cast interpretation as a binary classification problem, which we
can quantitatively evaluate. By building synthetic datasets over several data
modalities, we perform a systematic assessment of attention-based
interpretations. We find that attention distributions are indeed often
reflective of the relative importance of individual instances, but that silent
failures happen where a model will have high classification performance but
attention patterns that do not align with expectations. Based on these
observations, we propose to use ensembling to minimize the risk of misleading
attention-based explanations.
- Abstract(参考訳): 注意機構の解釈可能性に関する議論は、データサブコンポーネントが伝達する相対的な信号量のプロキシとして注意スコアを使用できるかどうかに焦点を当てている。
本稿では,各データポイントがグローバルラベル付き無秩序なインスタンス集合から構成される,集合機械学習の文脈における注目の解釈可能性について検討する。
古典的多重インスタンス学習問題や単純な拡張には、二項分類問題としてキャスティング解釈に活用できる、明確に定義された「重要」基底真理があり、定量的に評価できる。
複数のデータモダリティに合成データセットを構築することにより、注意に基づく解釈の体系的な評価を行う。
注意分布は個々のインスタンスの相対的重要性を反映していることが多いが、モデルが高い分類性能を持つが、期待に合致しない注意パターンを持つ場合に、サイレント障害が発生する。
これらの観測に基づいて,注意に基づく説明を誤解させるリスクを最小限に抑えるためにアンサンブルを用いることを提案する。
関連論文リスト
- Perturbation-based Self-supervised Attention for Attention Bias in Text
Classification [31.144857032681905]
本稿では,摂動に基づく自己監督型アテンションアプローチを提案し,注意学習の指導を行う。
文中のすべての単語に、その意味や予測を変えることなく、可能な限り多くのノイズを加えます。
3つのテキスト分類タスクの実験結果から,本手法は現在の注目モデルの性能を大幅に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-05-25T03:18:18Z) - Guiding Visual Question Answering with Attention Priors [76.21671164766073]
本稿では,言語・視覚的接地による注意機構の導出について述べる。
この基礎は、クエリ内の構造化言語概念を視覚オブジェクト間の参照物に接続することで導かれる。
このアルゴリズムは、注意に基づく推論モデルを調べ、関連する連想的知識を注入し、コア推論プロセスを制御する。
論文 参考訳(メタデータ) (2022-05-25T09:53:47Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Learning to Detect Instance-level Salient Objects Using Complementary
Image Labels [55.049347205603304]
本報告では,本問題に対する第1の弱教師付きアプローチを提案する。
本稿では,候補対象の特定にクラス整合性情報を活用するSaliency Detection Branch,オブジェクト境界をデライン化するためにクラス整合性情報を利用するBundary Detection Branch,サブティナイズ情報を用いたCentroid Detection Branchを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:15:22Z) - Improve the Interpretability of Attention: A Fast, Accurate, and
Interpretable High-Resolution Attention Model [6.906621279967867]
そこで本稿では,タスク関連情報を取り込むための,非線形代表非パラメトリックアテンション(BR-NPA)戦略を提案する。
提案したモデルは、分類が関与する様々な近代的な深層モデルに容易に適応できる。
また、通常のニューラルアテンションモジュールよりも正確で高速で、メモリフットプリントも小さい。
論文 参考訳(メタデータ) (2021-06-04T15:57:37Z) - Is Sparse Attention more Interpretable? [52.85910570651047]
我々は,空間が注意力を説明可能性ツールとして活用する能力にどのように影響するかを検討する。
入力とインデックス付き中間表現の間には弱い関係しか存在しません。
この設定では、疎度を誘導することで、モデルの振る舞いを理解するためのツールとして注意が使用できることが、より確実になる可能性があることを観察する。
論文 参考訳(メタデータ) (2021-06-02T11:42:56Z) - Disambiguation of weak supervision with exponential convergence rates [88.99819200562784]
教師付き学習では、データは不完全で差別的な情報で注釈付けされる。
本稿では,ある入力から潜在的な対象のセットが与えられる弱い監督の事例である部分的ラベリングに焦点を当てる。
弱い監督から完全な監督を回復する実証的曖昧化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-04T18:14:32Z) - Why Attentions May Not Be Interpretable? [46.69116768203185]
近年の研究では、注目・重要解釈は期待どおりに機能しないことが多いことが判明した。
この現象の根本原因の一つがショートカットであり、注意重み自体が余分な情報を運ぶ可能性があることを示している。
この問題を緩和する2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-10T05:08:30Z) - Salience Estimation with Multi-Attention Learning for Abstractive Text
Summarization [86.45110800123216]
テキスト要約のタスクでは、単語、フレーズ、文のサリエンス推定が重要な要素である。
本稿では,サラレンス推定のための2つの新しい注目学習要素を含むマルチアテンション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T02:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。