論文の概要: Explaining Latent Representations with a Corpus of Examples
- arxiv url: http://arxiv.org/abs/2110.15355v1
- Date: Thu, 28 Oct 2021 17:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 14:46:16.054073
- Title: Explaining Latent Representations with a Corpus of Examples
- Title(参考訳): 例のコーパスによる潜在表現の解説
- Authors: Jonathan Crabb\'e, Zhaozhi Qian, Fergus Imrie, Mihaela van der Schaar
- Abstract要約: 本稿では,サンプルベースの説明を自由に選択されたサンプル集合を参照して提供するユーザ中心の手法であるSimplExを提案する。
SimplExは、ポストホックな説明で潜伏空間に対するユーザの理解を改善するためにコーパスを使用する。
SimplExは,モデル表現を説明するコーパス内の関連パターンを強調表示することで,ユーザを力づけることを示す。
- 参考スコア(独自算出の注目度): 72.50996504722293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern machine learning models are complicated. Most of them rely on
convoluted latent representations of their input to issue a prediction. To
achieve greater transparency than a black-box that connects inputs to
predictions, it is necessary to gain a deeper understanding of these latent
representations. To that aim, we propose SimplEx: a user-centred method that
provides example-based explanations with reference to a freely selected set of
examples, called the corpus. SimplEx uses the corpus to improve the user's
understanding of the latent space with post-hoc explanations answering two
questions: (1) Which corpus examples explain the prediction issued for a given
test example? (2) What features of these corpus examples are relevant for the
model to relate them to the test example? SimplEx provides an answer by
reconstructing the test latent representation as a mixture of corpus latent
representations. Further, we propose a novel approach, the Integrated Jacobian,
that allows SimplEx to make explicit the contribution of each corpus feature in
the mixture. Through experiments on tasks ranging from mortality prediction to
image classification, we demonstrate that these decompositions are robust and
accurate. With illustrative use cases in medicine, we show that SimplEx
empowers the user by highlighting relevant patterns in the corpus that explain
model representations. Moreover, we demonstrate how the freedom in choosing the
corpus allows the user to have personalized explanations in terms of examples
that are meaningful for them.
- Abstract(参考訳): 現代の機械学習モデルは複雑です。
その多くは、予測を発行するために入力の複雑な潜在表現に依存している。
入力と予測を結びつけるブラックボックスよりも透明性を高めるためには、これらの潜伏表現をより深く理解する必要がある。
そこで,本研究では,コーパスと呼ばれる自由選択されたサンプル群を参照して,サンプルベースの説明を提供するユーザ中心の方法であるsimplexを提案する。
SimplExは、(1)テスト例で発行された予測を説明するコーパスの例について、2つの質問に答えるポストホックな説明で、潜伏空間に対するユーザの理解を改善するためにコーパスを使用している。
2) これらのコーパスの例の特徴は、モデルをテスト例に関連付けるのに関係していますか。
SimplExは、テスト潜在表現をコーパス潜在表現の混合として再構成することで答えを提供する。
さらに,SimplEx による各コーパス特徴のコントリビューションの明確化を可能にする新しい手法,Integrated Jacobian を提案する。
死亡予測から画像分類まで幅広い課題について実験を行い,これらの分解がロバストで正確であることを実証した。
医療における実例から,SimplExはモデル表現を説明するコーパス内の関連パターンを強調することにより,ユーザを力づけることを示す。
さらに, コーパスの選択の自由度が, ユーザにとって有意義な例でパーソナライズされた説明をすることができることを示す。
関連論文リスト
- Answer is All You Need: Instruction-following Text Embedding via
Answering the Question [41.727700155498546]
本稿では、入力テキストに関する質問として命令を扱い、予測された回答を符号化して表現を得る新しい視点を提供する。
具体的には,抽象的質問応答タスクの言語モデルのみを微調整することで,この組込み解答のアイデアをインスタンス化するInBedderを提案する。
論文 参考訳(メタデータ) (2024-02-15T01:02:41Z) - Conjunct Resolution in the Face of Verbal Omissions [51.220650412095665]
本稿では,テキスト上で直接動作する接続分解タスクを提案し,コーディネーション構造に欠けている要素を復元するために,分割・言い換えパラダイムを利用する。
クラウドソースアノテーションによる自然に発生する動詞の省略例を10万件以上を含む,大規模なデータセットをキュレートする。
我々は、このタスクのために様々な神経ベースラインをトレーニングし、最良の手法が適切なパフォーマンスを得る一方で、改善のための十分なスペースを残していることを示す。
論文 参考訳(メタデータ) (2023-05-26T08:44:02Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - What Are You Token About? Dense Retrieval as Distributions Over the
Vocabulary [68.77983831618685]
本稿では,2つのエンコーダが生成するベクトル表現を,モデルの語彙空間に投影することで解釈する。
得られたプロジェクションは、リッチな意味情報を含み、それらの間の接続を描画し、スパース検索を行う。
論文 参考訳(メタデータ) (2022-12-20T16:03:25Z) - Contrastive Corpus Attribution for Explaining Representations [17.07084455770185]
ほとんどの説明手法はスカラーモデルの出力を説明する。
最近の研究はスカラーの説明出力を定義しており、説明されているサンプルの表現空間におけるドット積に基づく類似性を定義している。
本稿では,新規で意味のあるスカラー説明出力であるコントラストコーパス類似性を提案する。
論文 参考訳(メタデータ) (2022-09-30T21:59:10Z) - Generating Informative Conclusions for Argumentative Texts [32.3103908466811]
論証文の目的は、ある結論を支持することである。
明確な結論は、議論文のよい候補要約である。
これは、結論が情報であり、特定の概念をテキストから強調する場合に特に当てはまる。
論文 参考訳(メタデータ) (2021-06-02T10:35:59Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。