論文の概要: Contrastive Corpus Attribution for Explaining Representations
- arxiv url: http://arxiv.org/abs/2210.00107v1
- Date: Fri, 30 Sep 2022 21:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:22:26.774485
- Title: Contrastive Corpus Attribution for Explaining Representations
- Title(参考訳): 説明表現に対するコントラストコーパスの寄与
- Authors: Chris Lin, Hugh Chen, Chanwoo Kim, Su-In Lee
- Abstract要約: ほとんどの説明手法はスカラーモデルの出力を説明する。
最近の研究はスカラーの説明出力を定義しており、説明されているサンプルの表現空間におけるドット積に基づく類似性を定義している。
本稿では,新規で意味のあるスカラー説明出力であるコントラストコーパス類似性を提案する。
- 参考スコア(独自算出の注目度): 17.07084455770185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the widespread use of unsupervised models, very few methods are
designed to explain them. Most explanation methods explain a scalar model
output. However, unsupervised models output representation vectors, the
elements of which are not good candidates to explain because they lack semantic
meaning. To bridge this gap, recent works defined a scalar explanation output:
a dot product-based similarity in the representation space to the sample being
explained (i.e., an explicand). Although this enabled explanations of
unsupervised models, the interpretation of this approach can still be opaque
because similarity to the explicand's representation may not be meaningful to
humans. To address this, we propose contrastive corpus similarity, a novel and
semantically meaningful scalar explanation output based on a reference corpus
and a contrasting foil set of samples. We demonstrate that contrastive corpus
similarity is compatible with many post-hoc feature attribution methods to
generate COntrastive COrpus Attributions (COCOA) and quantitatively verify that
features important to the corpus are identified. We showcase the utility of
COCOA in two ways: (i) we draw insights by explaining augmentations of the same
image in a contrastive learning setting (SimCLR); and (ii) we perform zero-shot
object localization by explaining the similarity of image representations to
jointly learned text representations (CLIP).
- Abstract(参考訳): 教師なしモデルが広く使われているにもかかわらず、それらを説明するために設計された手法はほとんどない。
ほとんどの説明方法はスカラーモデルの出力を説明する。
しかし、教師なしモデルは表現ベクトルを出力し、それら要素は意味的な意味が欠けているため、説明に適さない。
このギャップを埋めるために、最近の研究はスカラーの説明出力を定義した: 説明対象のサンプルに対する表現空間におけるドット積ベースの類似性(つまり、説明)。
これは教師なしモデルの説明を可能にするが、エクスリカンドの表現と類似性は人間には意味がないため、このアプローチの解釈はいまだ不透明である。
そこで本研究では,コントラストコーパスの類似性,参照コーパスとコントラストフォイル集合に基づく,新しく意味的に意味のあるスカラー説明出力を提案する。
コントラスト的なコーパス類似性は、コーパスに重要な特徴が同定されるかどうかを定量的に検証し、Contrastive COrpus Attributions(COCOA)を生成するために、多くのポストホック特徴属性と互換性があることを実証する。
我々はCOCOAの有用性を2つの方法で紹介する。
一 対照的な学習環境(SimCLR)において同じ画像の増補を説明することにより洞察を導き、
(ii)共同学習テキスト表現(clip)と画像表現の類似性を説明することにより,ゼロショットオブジェクトのローカライズを行う。
関連論文リスト
- Conjuring Semantic Similarity [59.18714889874088]
2つのテキスト表現間の意味的類似性は、潜伏者の「意味」の間の距離を測定する
テキスト表現間の意味的類似性は、他の表現を言い換えるのではなく、それらが引き起こすイメージに基づいている、という新しいアプローチを提案する。
提案手法は,人間の注釈付きスコアに適合するだけでなく,テキスト条件付き生成モデル評価のための新たな道を開く意味的類似性に関する新たな視点を提供する。
論文 参考訳(メタデータ) (2024-10-21T18:51:34Z) - Interpreting Vision and Language Generative Models with Semantic Visual
Priors [3.3772986620114374]
我々は、出力シーケンス全体の意味表現を活用する意味のある説明を生成できるSHAPに基づくフレームワークを開発する。
提案手法は,従来の手法よりも計算コストが低く,意味論的に表現力に富んだ説明を生成する。
論文 参考訳(メタデータ) (2023-04-28T17:10:08Z) - What Are You Token About? Dense Retrieval as Distributions Over the
Vocabulary [68.77983831618685]
本稿では,2つのエンコーダが生成するベクトル表現を,モデルの語彙空間に投影することで解釈する。
得られたプロジェクションは、リッチな意味情報を含み、それらの間の接続を描画し、スパース検索を行う。
論文 参考訳(メタデータ) (2022-12-20T16:03:25Z) - Argumentative Explanations for Pattern-Based Text Classifiers [15.81939090849456]
文分類のためのパターンベースロジスティック回帰(PLR)という,特定の解釈可能なモデルの説明に焦点をあてる。
本稿では,AXPLRを提案する。AXPLRは,計算論法を用いて説明文を生成する新しい説明法である。
論文 参考訳(メタデータ) (2022-05-22T21:16:49Z) - Explaining Latent Representations with a Corpus of Examples [72.50996504722293]
本稿では,サンプルベースの説明を自由に選択されたサンプル集合を参照して提供するユーザ中心の手法であるSimplExを提案する。
SimplExは、ポストホックな説明で潜伏空間に対するユーザの理解を改善するためにコーパスを使用する。
SimplExは,モデル表現を説明するコーパス内の関連パターンを強調表示することで,ユーザを力づけることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:59:06Z) - Self-Supervised Learning Disentangled Group Representation as Feature [82.07737719232972]
既存の自己監督学習(SSL)は、回転や着色などの単純な拡張機能のみを分解することを示す。
反復的分割に基づく不変リスク最小化(IP-IRM)を提案する。
我々は、IP-IRMが完全に不整合表現に収束し、様々なベンチマークでその効果を示すことを証明した。
論文 参考訳(メタデータ) (2021-10-28T16:12:33Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。