論文の概要: Analogies and Feature Attributions for Model Agnostic Explanation of
Similarity Learners
- arxiv url: http://arxiv.org/abs/2202.01153v1
- Date: Wed, 2 Feb 2022 17:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 14:54:34.577541
- Title: Analogies and Feature Attributions for Model Agnostic Explanation of
Similarity Learners
- Title(参考訳): 類似学習者のモデル非依存的説明のためのアナロジーと特徴属性
- Authors: Karthikeyan Natesan Ramamurthy, Amit Dhurandhar, Dennis Wei, Zaid Bin
Tariq
- Abstract要約: ブラックボックスの類似性学習者によって決定される入力のペア間の類似性を説明するための特徴属性を提供する手法を提案する。
ここでのゴールは、入力対と同じレベルの類似性を共有する様々な類似の例のペアを特定することである。
我々の類似目的関数は部分モジュラーであることを証明し、良質な類似関係の探索を効率化する。
- 参考スコア(独自算出の注目度): 29.63747822793279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Post-hoc explanations for black box models have been studied extensively in
classification and regression settings. However, explanations for models that
output similarity between two inputs have received comparatively lesser
attention. In this paper, we provide model agnostic local explanations for
similarity learners applicable to tabular and text data. We first propose a
method that provides feature attributions to explain the similarity between a
pair of inputs as determined by a black box similarity learner. We then propose
analogies as a new form of explanation in machine learning. Here the goal is to
identify diverse analogous pairs of examples that share the same level of
similarity as the input pair and provide insight into (latent) factors
underlying the model's prediction. The selection of analogies can optionally
leverage feature attributions, thus connecting the two forms of explanation
while still maintaining complementarity. We prove that our analogy objective
function is submodular, making the search for good-quality analogies efficient.
We apply the proposed approaches to explain similarities between sentences as
predicted by a state-of-the-art sentence encoder, and between patients in a
healthcare utilization application. Efficacy is measured through quantitative
evaluations, a careful user study, and examples of explanations.
- Abstract(参考訳): ブラックボックスモデルのポストホックな説明は分類と回帰設定で広く研究されている。
しかし、2つの入力間の類似性を出力するモデルの説明は、比較的少ない注目を集めている。
本稿では,表やテキストデータに適用可能な類似性学習者に対して,モデルに依存しない局所的説明を提供する。
まず,ブラックボックス類似度学習者によって決定される2つの入力間の類似性を説明するための特徴属性を提供する手法を提案する。
次に、機械学習における新しい説明形式として類似性を提案する。
ここでの目標は、入力ペアと同じレベルの類似度を持つ多様な類似のペアを特定し、モデルの予測の基礎となる(相対的な)要因についての洞察を提供することである。
アナロジーの選択は任意に特徴属性を利用することができ、相補性を保ちながら2種類の説明を接続することができる。
我々の類似目的関数は部分モジュラーであることを証明し、良質な類似関係の探索を効率化する。
提案手法は,最先端文エンコーダで予測される文と,医療利用アプリケーションにおける患者間の類似性を説明するために適用する。
有効性は定量的評価、注意深いユーザー調査、説明の例を通して測定される。
関連論文リスト
- Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - A Unified Framework for Input Feature Attribution Analysis [44.5176896474762]
一般的な説明形式のひとつに、トークンやトークン間のインタラクションなど、重要な入力機能がある。
これらの説明型は単独でのみ研究されており、それぞれの適用性を判断することは困難である。
我々の実験では、強調説明はモデルの予測に最も忠実であり、対話的な説明はモデルの予測をシミュレートする学習に役立つ。
論文 参考訳(メタデータ) (2024-06-21T12:01:03Z) - On the Information Content of Predictions in Word Analogy Tests [0.0]
アナログテストにおけるアナログの実際の関連性を、情報のビットで定量化する手法が提案されている。
このアプローチの主な構成要素は、補償バイアスを伴うエントロピー推定も得るソフト精度推定器である。
論文 参考訳(メタデータ) (2022-10-18T16:32:25Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z) - Towards Analogy-Based Explanations in Machine Learning [3.1410342959104725]
類推的推論は解釈可能性や説明可能性の観点からはそれほど面白くないと我々は主張する。
アナログベースのアプローチは、説明可能なAIと解釈可能な機械学習という領域における既存のアプローチの代替として実現可能なものだ。
論文 参考訳(メタデータ) (2020-05-23T06:41:35Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - Building and Interpreting Deep Similarity Models [0.0]
そこで本稿では,入力機能の観点から説明することで類似性を解釈する手法を提案する。
我々は,2組の入力特徴に対して類似度スコアを系統的に分解する,スケーラブルで理論的に確立された手法であるBiLRPを開発した。
論文 参考訳(メタデータ) (2020-03-11T17:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。