論文の概要: Effective Explanations for Entity Resolution Models
- arxiv url: http://arxiv.org/abs/2203.12978v1
- Date: Thu, 24 Mar 2022 10:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 15:28:16.670082
- Title: Effective Explanations for Entity Resolution Models
- Title(参考訳): エンティティ解決モデルの効果的な説明
- Authors: Tommaso Teofili, Donatella Firmani, Nick Koudas, Vincenzo Martello,
Paolo Merialdo, Divesh Srivastava
- Abstract要約: 本研究では,ERの深層学習における説明可能性に関する基礎的問題について検討する。
本稿では,ER問題のセマンティクスを意識したCERTA手法を提案する。
我々は,公開データセットを用いたDLモデルに基づいて,CERTAによる最先端ERソリューションの説明を実験的に評価した。
- 参考スコア(独自算出の注目度): 21.518135952436975
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Entity resolution (ER) aims at matching records that refer to the same
real-world entity. Although widely studied for the last 50 years, ER still
represents a challenging data management problem, and several recent works have
started to investigate the opportunity of applying deep learning (DL)
techniques to solve this problem. In this paper, we study the fundamental
problem of explainability of the DL solution for ER. Understanding the matching
predictions of an ER solution is indeed crucial to assess the trustworthiness
of the DL model and to discover its biases. We treat the DL model as a black
box classifier and - while previous approaches to provide explanations for DL
predictions are agnostic to the classification task. we propose the CERTA
approach that is aware of the semantics of the ER problem. Our approach
produces both saliency explanations, which associate each attribute with a
saliency score, and counterfactual explanations, which provide examples of
values that can flip the prediction. CERTA builds on a probabilistic framework
that aims at computing the explanations evaluating the outcomes produced by
using perturbed copies of the input records. We experimentally evaluate CERTA's
explanations of state-of-the-art ER solutions based on DL models using publicly
available datasets, and demonstrate the effectiveness of CERTA over recently
proposed methods for this problem.
- Abstract(参考訳): エンティティ解決(ER)は、同じ現実世界のエンティティを参照するレコードのマッチングを目的とする。
過去50年間、広く研究されてきたが、ERは依然として挑戦的なデータ管理の問題であり、近年ではこの問題を解決するために深層学習(DL)技術を適用する機会を探求し始めている。
本稿では,ER に対する DL ソリューションの基本的問題について検討する。
ERソリューションの一致予測を理解することは、DLモデルの信頼性を評価し、そのバイアスを発見するために本当に重要である。
我々は、dlモデルをブラックボックス分類器として扱い、dl予測の説明を提供する以前のアプローチは分類タスクに依存しない。
本稿では,ER問題のセマンティクスを意識したCERTA手法を提案する。
提案手法では,各属性をサリエンシースコアに関連付けるサリエンシー説明と,予測をひっくり返せる値の例を示す反事実的説明の両方を生成する。
CERTAは、入力レコードの摂動コピーを用いて生成された結果を評価することを目的とした確率的フレームワークを構築している。
我々は,CERTA による DL モデルに基づく最新ER ソリューションの説明を公開データセットを用いて実験的に評価し,最近提案された手法よりも CERTA の有効性を実証した。
関連論文リスト
- DISCO: DISCovering Overfittings as Causal Rules for Text Classification Models [6.369258625916601]
ポストホックの解釈可能性法は、モデルの意思決定プロセスを完全に捉えるのに失敗する。
本稿では,グローバルなルールベースの説明を見つけるための新しい手法であるdisCOを紹介する。
DISCOは対話的な説明をサポートし、人間の検査者がルールベースの出力で突発的な原因を区別できるようにする。
論文 参考訳(メタデータ) (2024-11-07T12:12:44Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Modeling Causal Mechanisms with Diffusion Models for Interventional and Counterfactual Queries [10.818661865303518]
本稿では,観察的,介入的,反ファクト的クエリに因果的に十分な設定で回答する問題を考察する。
本稿では拡散型因果モデル (DCM) を導入し, 独自の潜伏符号化を生成する因果メカニズムを学習する。
我々の実証評価は、因果クエリに応答する既存の最先端手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2023-02-02T04:08:08Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Interpretable Data-Based Explanations for Fairness Debugging [7.266116143672294]
Gopherは、バイアスや予期せぬモデルの振る舞いに関するコンパクトで解釈可能な、因果的な説明を生成するシステムである。
我々は,学習データに介入する程度を,サブセットの削除や更新によって定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて、モデルバイアスを説明するトップkパターンを生成するための効率的なアプローチを開発する。
論文 参考訳(メタデータ) (2021-12-17T20:10:00Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - A new interpretable unsupervised anomaly detection method based on
residual explanation [47.187609203210705]
本稿では,大規模システムにおけるAEベースのADの制限に対処する新しい解釈可能性手法であるRXPを提案する。
実装の単純さ、計算コストの低さ、決定論的振る舞いが特徴である。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-14T15:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。