論文の概要: EXAGREE: Towards Explanation Agreement in Explainable Machine Learning
- arxiv url: http://arxiv.org/abs/2411.01956v1
- Date: Mon, 04 Nov 2024 10:28:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:51:54.509769
- Title: EXAGREE: Towards Explanation Agreement in Explainable Machine Learning
- Title(参考訳): ExagREE: 説明可能な機械学習における説明契約に向けて
- Authors: Sichao Li, Quanling Deng, Amanda S. Barnard,
- Abstract要約: 機械学習における説明は、信頼、透明性、公平性に不可欠である。
本稿では,説明可能な機械学習における多種多様な解釈を橋渡しする新しいフレームワークであるExplanation AGREEmentを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Explanations in machine learning are critical for trust, transparency, and fairness. Yet, complex disagreements among these explanations limit the reliability and applicability of machine learning models, especially in high-stakes environments. We formalize four fundamental ranking-based explanation disagreement problems and introduce a novel framework, EXplanation AGREEment (EXAGREE), to bridge diverse interpretations in explainable machine learning, particularly from stakeholder-centered perspectives. Our approach leverages a Rashomon set for attribution predictions and then optimizes within this set to identify Stakeholder-Aligned Explanation Models (SAEMs) that minimize disagreement with diverse stakeholder needs while maintaining predictive performance. Rigorous empirical analysis on synthetic and real-world datasets demonstrates that EXAGREE reduces explanation disagreement and improves fairness across subgroups in various domains. EXAGREE not only provides researchers with a new direction for studying explanation disagreement problems but also offers data scientists a tool for making better-informed decisions in practical applications.
- Abstract(参考訳): 機械学習における説明は、信頼、透明性、公平性に不可欠である。
しかし、これらの説明の複雑な相違は、特に高い環境において、機械学習モデルの信頼性と適用性を制限している。
我々は4つの基本的ランク付けに基づく説明の不一致問題を定式化し、特に利害関係者を中心にした視点から、説明可能な機械学習における多様な解釈を橋渡しする新しい枠組み、Explanation AGREEment(EXAGREE)を導入する。
提案手法では, 帰属予測にRashomonセットを活用するとともに, 予測性能を維持しつつ, 多様な利害関係者のニーズとの相違を最小限に抑えるStakeholder-Aligned Explanation Models (SAEMs) を同定するために, このセット内で最適化する。
合成および実世界のデータセットに関する厳密な実証分析は、EXAGREEが説明の不一致を減らし、様々な領域のサブグループ間の公正性を改善することを示した。
EXAGREEは、研究者に説明の不一致の問題を研究するための新しい方向を提供するだけでなく、データサイエンティストに実用的なアプリケーションでより良いインフォームド決定を行うためのツールを提供する。
関連論文リスト
- Interpreting Inflammation Prediction Model via Tag-based Cohort Explanation [5.356481722174994]
本稿では,局所的特徴重要度スコアに基づいて,データセット内のコホートを識別する新しいフレームワークを提案する。
食品ベースの炎症予測モデル上での枠組みを評価し,その枠組みがドメイン知識に合致する信頼性のある説明を生成できることを実証した。
論文 参考訳(メタデータ) (2024-10-17T23:22:59Z) - CohEx: A Generalized Framework for Cohort Explanation [5.269665407562217]
コホートの説明は、特定のグループや事例のコホートにおける説明者の振る舞いに関する洞察を与える。
本稿では,コホートの説明を測る上でのユニークな課題と機会について論じる。
論文 参考訳(メタデータ) (2024-10-17T03:36:18Z) - Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - Generalizing Machine Learning Evaluation through the Integration of Shannon Entropy and Rough Set Theory [0.0]
我々は、粗集合論の粒度とシャノンエントロピーの不確かさの定量化を相乗化する包括的枠組みを導入する。
我々の手法は様々なデータセットで厳密にテストされており、予測性能を評価するだけでなく、基礎となるデータの複雑さとモデルロバスト性を照らす能力を示している。
論文 参考訳(メタデータ) (2024-04-18T21:22:42Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - RELAX: Representation Learning Explainability [10.831313203043514]
本稿では、帰属に基づく表現の説明のための最初のアプローチであるRELAXを提案する。
ReLAXは、入力とマスクアウトされた自身のバージョンの間の表現空間における類似性を測定することで表現を説明する。
我々はRELAXの理論的解釈を提供し、教師なし学習を用いて訓練された特徴抽出器を新規に解析する。
論文 参考訳(メタデータ) (2021-12-19T14:51:31Z) - Multilingual Multi-Aspect Explainability Analyses on Machine Reading Comprehension Models [76.48370548802464]
本稿では,マルチヘッド自己注意と最終MRCシステム性能の関係を検討するために,一連の解析実験を実施することに焦点を当てる。
問合せ及び問合せ理解の注意が問合せプロセスにおいて最も重要なものであることが判明した。
包括的可視化とケーススタディを通じて、注意マップに関するいくつかの一般的な知見も観察し、これらのモデルがどのように問題を解くかを理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-08-26T04:23:57Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。