論文の概要: Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses
- arxiv url: http://arxiv.org/abs/2009.07165v3
- Date: Wed, 28 Oct 2020 19:22:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:40:05.689613
- Title: Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses
- Title(参考訳): 個別化されたリコースを超えて:行動可能なリコースの解釈可能でインタラクティブなサマリ
- Authors: Kaivalya Rawal, Himabindu Lakkaraju
- Abstract要約: 本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
- 参考スコア(独自算出の注目度): 14.626432428431594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As predictive models are increasingly being deployed in high-stakes
decision-making, there has been a lot of interest in developing algorithms
which can provide recourses to affected individuals. While developing such
tools is important, it is even more critical to analyse and interpret a
predictive model, and vet it thoroughly to ensure that the recourses it offers
are meaningful and non-discriminatory before it is deployed in the real world.
To this end, we propose a novel model agnostic framework called Actionable
Recourse Summaries (AReS) to construct global counterfactual explanations which
provide an interpretable and accurate summary of recourses for the entire
population. We formulate a novel objective which simultaneously optimizes for
correctness of the recourses and interpretability of the explanations, while
minimizing overall recourse costs across the entire population. More
specifically, our objective enables us to learn, with optimality guarantees on
recourse correctness, a small number of compact rule sets each of which capture
recourses for well defined subpopulations within the data. We also demonstrate
theoretically that several of the prior approaches proposed to generate
recourses for individuals are special cases of our framework. Experimental
evaluation with real world datasets and user studies demonstrate that our
framework can provide decision makers with a comprehensive overview of
recourses corresponding to any black box model, and consequently help detect
undesirable model biases and discrimination.
- Abstract(参考訳): 予測モデルがハイテイクな意思決定に展開される傾向にあるため、影響を受けた個人に会話を提供するアルゴリズムの開発に多くの関心が寄せられている。
このようなツールの開発は重要だが、予測モデルを分析、解釈することがさらに重要であり、それが現実世界に展開する前に、それが意味があり差別的でないことを確実にするために徹底的に検証する。
この目的のために,本研究では,グローバルな対実的説明を構築するために,Actionable Recourse Summaries (AReS) と呼ばれる新しいモデル非依存フレームワークを提案する。
我々は,リコースの正しさと説明の解釈可能性を同時に最適化する新しい目的を定式化し,全体のリコースコストを最小化する。
より具体的には、我々の目的は、データ内の適切に定義されたサブポピュレーションに対するリコースをキャプチャする少数のコンパクトルールセットにおいて、リコースの正確性に関する最適性を保証することで、学習を可能にする。
また,従来提案されていた個人向け談話生成手法が,フレームワークの特別な事例であることも理論的に実証した。
実世界のデータセットとユーザスタディによる実験的評価により、我々のフレームワークは、あらゆるブラックボックスモデルに対応するリコースの包括的な概要を意思決定者に提供でき、その結果、望ましくないモデルのバイアスや差別を検出するのに役立ちます。
関連論文リスト
- Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency [1.124958340749622]
学習過程に公平度を組み込んだMARSに基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
論文 参考訳(メタデータ) (2024-02-23T19:02:24Z) - Generating collective counterfactual explanations in score-based
classification via mathematical optimization [4.281723404774889]
インスタンスの反実的な説明は、このインスタンスを最小限に修正して、摂動インスタンスを望ましいクラスに分類する方法を示している。
カウンターファクト・アナリティクスの文献の多くは、単一インスタンスの単一カウントファクト・セッティングに焦点を当てている。
新規な数学的最適化モデルにより、興味ある群における各インスタンスに対する対実的説明を提供する。
論文 参考訳(メタデータ) (2023-10-19T15:18:42Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - BRIO: Bringing Order to Abstractive Summarization [107.97378285293507]
非決定論的分布を前提とした新しい学習パラダイムを提案する。
提案手法は, CNN/DailyMail (47.78 ROUGE-1) と XSum (49.07 ROUGE-1) のデータセット上で, 最新の結果が得られる。
論文 参考訳(メタデータ) (2022-03-31T05:19:38Z) - Probabilistically Robust Recourse: Navigating the Trade-offs between
Costs and Robustness in Algorithmic Recourse [34.39887495671287]
本稿では,達成された(反感)と所望のリコース無効率とのギャップを同時に最小化する目的関数を提案する。
我々は,任意のインスタンスに対応するリコース無効化率を特徴付けるために,新しい理論的結果を開発した。
複数の実世界のデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-13T21:39:24Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Forethought and Hindsight in Credit Assignment [62.05690959741223]
我々は、前向きモデルや後向きモデルによる後向き操作による予測として使われる計画の利益と特異性を理解するために活動する。
本稿では,予測を(再)評価すべき状態の選択に主眼を置いて,計画におけるモデルの利用について検討する。
論文 参考訳(メタデータ) (2020-10-26T16:00:47Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Decisions, Counterfactual Explanations and Strategic Behavior [16.980621769406923]
戦略的な設定で実用性の観点から最適な政策と対実的な説明を見つける。
事前に定義されたポリシーを考えると、最適の対実的説明の集合を見つける問題はNPハードであることが示される。
本研究では,マトロイド制約を問題定式化に組み込むことで,最適対実的説明セットの多様性を高めることができることを示した。
論文 参考訳(メタデータ) (2020-02-11T12:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。