論文の概要: Feature Responsiveness Scores: Model-Agnostic Explanations for Recourse
- arxiv url: http://arxiv.org/abs/2410.22598v1
- Date: Tue, 29 Oct 2024 23:37:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:28:49.550407
- Title: Feature Responsiveness Scores: Model-Agnostic Explanations for Recourse
- Title(参考訳): 特徴応答性スコア:リコースのためのモデル非依存的説明
- Authors: Seung Hyun Cheon, Anneke Wernerfelt, Sorelle A. Friedler, Berk Ustun,
- Abstract要約: 消費者保護規則は、有害な判断を受けた消費者に「原則的理由」のリストを提供することを義務付けている。
実際には、貸し手や雇用主は、特徴帰属法から上位の特徴を返却することで、主な理由を特定できる。
本研究は,標準的な帰属手法が,無言の理由を強調することによって,個人を誤解させる可能性があることを示す。
応答性に基づいて特徴をスコアリングすることで,これらの問題に対処することを提案する。
- 参考スコア(独自算出の注目度): 7.730963708373791
- License:
- Abstract: Machine learning models are often used to automate or support decisions in applications such as lending and hiring. In such settings, consumer protection rules mandate that we provide a list of "principal reasons" to consumers who receive adverse decisions. In practice, lenders and employers identify principal reasons by returning the top-scoring features from a feature attribution method. In this work, we study how such practices align with one of the underlying goals of consumer protection - recourse - i.e., educating individuals on how they can attain a desired outcome. We show that standard attribution methods can mislead individuals by highlighting reasons without recourse - i.e., by presenting consumers with features that cannot be changed to achieve recourse. We propose to address these issues by scoring features on the basis of responsiveness - i.e., the probability that an individual can attain a desired outcome by changing a specific feature. We develop efficient methods to compute responsiveness scores for any model and any dataset under complex actionability constraints. We present an extensive empirical study on the responsiveness of explanations in lending and demonstrate how responsiveness scores can be used to construct feature-highlighting explanations that lead to recourse and mitigate harm by flagging instances with fixed predictions.
- Abstract(参考訳): 機械学習モデルは、融資や雇用といったアプリケーションにおける意思決定の自動化やサポートにしばしば使用される。
このような状況下では、消費者保護規則は、有害な判断を受けた消費者に「原則的理由」のリストを提供することを義務付けている。
実際には、貸し手や雇用主は、特徴帰属法から上位の特徴を返却することで、主な理由を特定できる。
本研究では,このような実践が,消費者保護の根底にある目標であるリコース(recourse)とどのように一致しているかを検討する。
本研究では,標準属性法は,意図しない理由を強調することによって,個人を誤解させる可能性があることを示す。
応答性に基づいて特徴をスコアリングすることでこれらの問題に対処することを提案する。
我々は,複雑な動作可能性制約の下で,任意のモデルやデータセットに対する応答性スコアを計算する効率的な方法を開発した。
本研究では,貸与における説明の応答性に関する広範な実証的研究を行い,その応答性スコアが,一定の予測でインスタンスにフラグを付けることで,リコースや害を軽減させる特徴強調説明の構築にどのように役立つかを示す。
関連論文リスト
- Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Detection and Evaluation of bias-inducing Features in Machine learning [14.045499740240823]
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T15:01:16Z) - Prediction without Preclusion: Recourse Verification with Reachable Sets [16.705988489763868]
本稿では,モデルが決定対象に一定の予測を割り当てているかどうかを検証するために,リコース検証と呼ばれる手法を提案する。
本研究は,消費者金融のデータセットにおけるリコースの有効性に関する包括的実証研究である。
論文 参考訳(メタデータ) (2023-08-24T14:24:04Z) - Decomposing Counterfactual Explanations for Consequential Decision
Making [11.17545155325116]
我々は、IMFと強い因果的前提の間のギャップを埋める、新しく実践的な枠組みを開発する。
textttは、共変特徴の潜在表現をアンタングルすることで、recoursesを生成する。
実世界のデータに関する我々の実験は、理論上動機づけられたリコースモデルと相関し、信頼性と低コストのリコースを提供するフレームワークの能力を強調します。
論文 参考訳(メタデータ) (2022-11-03T21:26:55Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z) - Learning "What-if" Explanations for Sequential Decision-Making [92.8311073739295]
実世界の意思決定の解釈可能なパラメータ化を実証行動に基づいて構築することが不可欠である。
そこで我々は,「何」の結果に対する嗜好の観点から,報酬関数をモデル化し,専門家による意思決定の学習的説明を提案する。
本研究は,行動の正確かつ解釈可能な記述を回復する上で,実効的逆強化学習手法であるバッチの有効性を強調した。
論文 参考訳(メタデータ) (2020-07-02T14:24:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。