論文の概要: Feature Responsiveness Scores: Model-Agnostic Explanations for Recourse
- arxiv url: http://arxiv.org/abs/2410.22598v2
- Date: Fri, 28 Mar 2025 09:09:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:30:23.305927
- Title: Feature Responsiveness Scores: Model-Agnostic Explanations for Recourse
- Title(参考訳): 特徴応答性スコア:リコースのためのモデル非依存的説明
- Authors: Seung Hyun Cheon, Anneke Wernerfelt, Sorelle A. Friedler, Berk Ustun,
- Abstract要約: 消費者保護規則では、企業は意思決定対象に予測を説明する必要がある。
これらのプラクティスが、改善に繋がらない機能を強調して、消費者を弱める方法を示します。
応答性スコアに基づいて特徴を強調することにより,これらの課題に対処することを提案する。
- 参考スコア(独自算出の注目度): 7.730963708373791
- License:
- Abstract: Machine learning models routinely automate decisions in applications like lending and hiring. In such settings, consumer protection rules require companies that deploy models to explain predictions to decision subjects. These rules are motivated, in part, by the belief that explanations can promote recourse by revealing information that individuals can use to contest or improve their outcomes. In practice, many companies comply with these rules by providing individuals with a list of the most important features for their prediction, which they identify based on feature importance scores from feature attribution methods such as SHAP or LIME. In this work, we show how these practices can undermine consumers by highlighting features that would not lead to an improved outcome and by explaining predictions that cannot be changed. We propose to address these issues by highlighting features based on their responsiveness score -- i.e., the probability that an individual can attain a target prediction by changing a specific feature. We develop efficient methods to compute responsiveness scores for any model and any dataset. We conduct an extensive empirical study on the responsiveness of explanations in lending. Our results show that standard practices in consumer finance can backfire by presenting consumers with reasons without recourse, and demonstrate how our approach improves consumer protection by highlighting responsive features and identifying fixed predictions.
- Abstract(参考訳): 機械学習モデルは、融資や雇用といったアプリケーションにおける意思決定を日常的に自動化する。
このような設定では、消費者保護規則は、意思決定対象に予測を説明するモデルをデプロイする企業に要求する。
これらのルールは、説明が個人が競合したり、成果を改善するのに使える情報を明らかにすることによって、リコースを促進することができるという信念によって、部分的に動機付けられている。
実際に多くの企業は、SHAPやLIMEといった特徴帰属手法による特徴重要度スコアに基づいて、個人に予測の最も重要な特徴のリストを提供することで、これらのルールに準拠している。
本研究では、これらのプラクティスが消費者を弱体化させる要因として、改善に繋がらない機能を強調し、変更できない予測を説明することを挙げる。
本稿では,その応答性スコアに基づく特徴の強調,すなわち,特定の特徴を変化させることで,個人が目標予測を達成できる可能性に注目して,これらの課題に対処することを提案する。
我々は,任意のモデルやデータセットに対する応答性スコアを計算するための効率的な手法を開発した。
貸し出しにおける説明の応答性に関する広範な実証的研究を行った。
以上の結果から,消費者金融の標準的実践は,無関係な理由を消費者に提示することで反動を招き,応答性を強調し,固定予測を識別することで,消費者の保護をいかに改善するかを実証した。
関連論文リスト
- Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Detection and Evaluation of bias-inducing Features in Machine learning [14.045499740240823]
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T15:01:16Z) - Prediction without Preclusion: Recourse Verification with Reachable Sets [16.705988489763868]
本稿では,モデルが決定対象に一定の予測を割り当てているかどうかを検証するために,リコース検証と呼ばれる手法を提案する。
本研究は,消費者金融のデータセットにおけるリコースの有効性に関する包括的実証研究である。
論文 参考訳(メタデータ) (2023-08-24T14:24:04Z) - Decomposing Counterfactual Explanations for Consequential Decision
Making [11.17545155325116]
我々は、IMFと強い因果的前提の間のギャップを埋める、新しく実践的な枠組みを開発する。
textttは、共変特徴の潜在表現をアンタングルすることで、recoursesを生成する。
実世界のデータに関する我々の実験は、理論上動機づけられたリコースモデルと相関し、信頼性と低コストのリコースを提供するフレームワークの能力を強調します。
論文 参考訳(メタデータ) (2022-11-03T21:26:55Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z) - Learning "What-if" Explanations for Sequential Decision-Making [92.8311073739295]
実世界の意思決定の解釈可能なパラメータ化を実証行動に基づいて構築することが不可欠である。
そこで我々は,「何」の結果に対する嗜好の観点から,報酬関数をモデル化し,専門家による意思決定の学習的説明を提案する。
本研究は,行動の正確かつ解釈可能な記述を回復する上で,実効的逆強化学習手法であるバッチの有効性を強調した。
論文 参考訳(メタデータ) (2020-07-02T14:24:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。