論文の概要: LEMON: Explainable Entity Matching
- arxiv url: http://arxiv.org/abs/2110.00516v1
- Date: Fri, 1 Oct 2021 16:32:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:42:53.275452
- Title: LEMON: Explainable Entity Matching
- Title(参考訳): LEMON: 説明可能なエンティティマッチング
- Authors: Nils Barlaug
- Abstract要約: 最先端のエンティティマッチング手法は解釈が難しい。
ほとんどの一般的な説明可能性メソッドは、エンティティマッチングではうまく機能しない。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art entity matching (EM) methods are hard to interpret, and
there is significant value in bringing explainable AI to EM. Unfortunately,
most popular explainability methods do not work well out of the box for EM and
need adaptation. In this paper, we identify three challenges of applying local
post hoc feature attribution methods to entity matching: cross-record
interaction effects, non-match explanations, and variation in sensitivity. We
propose our novel model-agnostic and schema-flexible method LEMON that
addresses all three challenges by (i) producing dual explanations to avoid
cross-record interaction effects, (ii) introducing the novel concept of
attribution potential to explain how two records could have matched, and (iii)
automatically choosing explanation granularity to match the sensitivity of the
matcher and record pair in question. Experiments on public datasets demonstrate
that the proposed method is more faithful to the matcher and does a better job
of helping users understand the decision boundary of the matcher than previous
work. Furthermore, user studies show that the rate at which human subjects can
construct counterfactual examples after seeing an explanation from our proposed
method increases from 54% to 64% for matches and from 15% to 49% for
non-matches compared to explanations from a standard adaptation of LIME.
- Abstract(参考訳): State-of-the-art entity matching (EM)メソッドは解釈が困難であり、説明可能なAIをEMに持ち込む上で大きな価値がある。
残念なことに、最も一般的な説明可能性の手法は、EMのためにうまく機能せず、適応が必要である。
本稿では,局所的なポストホック特徴帰属法をエンティティマッチングに適用する3つの課題,クロスレコードインタラクション効果,非マッチング説明,感度の変動を明らかにする。
本稿では,3つの課題をすべて解決したモデル非依存でスキーマフレキシブルなレモン法を提案する。
(i)クロスレコード相互作用効果を避けるために二重説明を作成すること。
(ii)二つの記録がいかに一致したかを説明するために帰属可能性という新しい概念を導入すること、
(iii)問題のマッチング者及びレコードペアの感度に合致する説明粒度を自動的に選択する。
公開データセットに関する実験は、提案手法がマッチング者に対してより忠実であり、ユーザーが以前の作業よりもマッチング者の決定境界を理解するのに役立つことを証明している。
また,提案手法による説明を見て,被験者が偽例を構築できる割合が54%から64%に増加し,非マッチングでは15%から49%に増加した。
関連論文リスト
- Evaluating the Reliability of Self-Explanations in Large Language Models [2.8894038270224867]
このような自己説明の2つのタイプ – 抽出的, 対実的 – を評価した。
以上の結果から,これらの自己説明は人間の判断と相関するが,モデルの決定過程を完全に的確に従わないことが明らかとなった。
このギャップを橋渡しできるのは, 反実的な説明をLCMに促すことによって, 忠実で, 情報的で, 容易に検証できる結果が得られるからである。
論文 参考訳(メタデータ) (2024-07-19T17:41:08Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Reckoning with the Disagreement Problem: Explanation Consensus as a
Training Objective [5.949779668853556]
ポストホック特徴属性(Post hoc feature attribution)は、入力中の各特徴にモデル出力への影響に対応するスコアを与える一連の方法である。
この種類の説明者の大きな制限は、どの特徴が他のものよりも重要であるかについて意見が一致しないことである。
本稿では,2つの説明者間の特徴属性の差を計測する,精度に対応する標準的な用語とともに,損失項を導入する。
3つのデータセットから、この損失項を用いてモデルをトレーニングし、未知のデータに関する説明コンセンサスを改善するとともに、損失項で使用されるもの以外の説明コンセンサスの改善したコンセンサスを確認する。
論文 参考訳(メタデータ) (2023-03-23T14:35:37Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - A Song of (Dis)agreement: Evaluating the Evaluation of Explainable
Artificial Intelligence in Natural Language Processing [7.527234046228323]
我々は、注意に基づく説明のための評価指標としてランク相関を用いるのをやめるべきであると主張している。
注意に基づく説明は,最近の特徴帰属法と強く相関しないことがわかった。
論文 参考訳(メタデータ) (2022-05-09T21:07:39Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。