論文の概要: Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses
- arxiv url: http://arxiv.org/abs/2009.07165v3
- Date: Wed, 28 Oct 2020 19:22:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:40:05.689613
- Title: Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses
- Title(参考訳): 個別化されたリコースを超えて:行動可能なリコースの解釈可能でインタラクティブなサマリ
- Authors: Kaivalya Rawal, Himabindu Lakkaraju
- Abstract要約: 本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
- 参考スコア(独自算出の注目度): 14.626432428431594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As predictive models are increasingly being deployed in high-stakes
decision-making, there has been a lot of interest in developing algorithms
which can provide recourses to affected individuals. While developing such
tools is important, it is even more critical to analyse and interpret a
predictive model, and vet it thoroughly to ensure that the recourses it offers
are meaningful and non-discriminatory before it is deployed in the real world.
To this end, we propose a novel model agnostic framework called Actionable
Recourse Summaries (AReS) to construct global counterfactual explanations which
provide an interpretable and accurate summary of recourses for the entire
population. We formulate a novel objective which simultaneously optimizes for
correctness of the recourses and interpretability of the explanations, while
minimizing overall recourse costs across the entire population. More
specifically, our objective enables us to learn, with optimality guarantees on
recourse correctness, a small number of compact rule sets each of which capture
recourses for well defined subpopulations within the data. We also demonstrate
theoretically that several of the prior approaches proposed to generate
recourses for individuals are special cases of our framework. Experimental
evaluation with real world datasets and user studies demonstrate that our
framework can provide decision makers with a comprehensive overview of
recourses corresponding to any black box model, and consequently help detect
undesirable model biases and discrimination.
- Abstract(参考訳): 予測モデルがハイテイクな意思決定に展開される傾向にあるため、影響を受けた個人に会話を提供するアルゴリズムの開発に多くの関心が寄せられている。
このようなツールの開発は重要だが、予測モデルを分析、解釈することがさらに重要であり、それが現実世界に展開する前に、それが意味があり差別的でないことを確実にするために徹底的に検証する。
この目的のために,本研究では,グローバルな対実的説明を構築するために,Actionable Recourse Summaries (AReS) と呼ばれる新しいモデル非依存フレームワークを提案する。
我々は,リコースの正しさと説明の解釈可能性を同時に最適化する新しい目的を定式化し,全体のリコースコストを最小化する。
より具体的には、我々の目的は、データ内の適切に定義されたサブポピュレーションに対するリコースをキャプチャする少数のコンパクトルールセットにおいて、リコースの正確性に関する最適性を保証することで、学習を可能にする。
また,従来提案されていた個人向け談話生成手法が,フレームワークの特別な事例であることも理論的に実証した。
実世界のデータセットとユーザスタディによる実験的評価により、我々のフレームワークは、あらゆるブラックボックスモデルに対応するリコースの包括的な概要を意思決定者に提供でき、その結果、望ましくないモデルのバイアスや差別を検出するのに役立ちます。
関連論文リスト
- Feature Responsiveness Scores: Model-Agnostic Explanations for Recourse [7.730963708373791]
消費者保護規則は、有害な判断を受けた消費者に「原則的理由」のリストを提供することを義務付けている。
実際には、貸し手や雇用主は、特徴帰属法から上位の特徴を返却することで、主な理由を特定できる。
本研究は,標準的な帰属手法が,無言の理由を強調することによって,個人を誤解させる可能性があることを示す。
応答性に基づいて特徴をスコアリングすることで,これらの問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-10-29T23:37:49Z) - Enhancement of Approximation Spaces by the Use of Primals and Neighborhood [0.0]
近隣と原始」からのインスピレーションを引き出す4つの新しい一般化された粗集合モデルを導入する。
我々は、現在のモデルは、粗い集合モデルに関連するほとんどすべての重要な側面を保存できると主張している。
また、我々の日常的な健康に関する問題に対して定義する新たな戦略が、より正確な発見をもたらすことも示している。
論文 参考訳(メタデータ) (2024-10-23T18:49:13Z) - On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency [1.124958340749622]
学習過程に公平度を組み込んだMARSに基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
論文 参考訳(メタデータ) (2024-02-23T19:02:24Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - BRIO: Bringing Order to Abstractive Summarization [107.97378285293507]
非決定論的分布を前提とした新しい学習パラダイムを提案する。
提案手法は, CNN/DailyMail (47.78 ROUGE-1) と XSum (49.07 ROUGE-1) のデータセット上で, 最新の結果が得られる。
論文 参考訳(メタデータ) (2022-03-31T05:19:38Z) - Probabilistically Robust Recourse: Navigating the Trade-offs between
Costs and Robustness in Algorithmic Recourse [34.39887495671287]
本稿では,達成された(反感)と所望のリコース無効率とのギャップを同時に最小化する目的関数を提案する。
我々は,任意のインスタンスに対応するリコース無効化率を特徴付けるために,新しい理論的結果を開発した。
複数の実世界のデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-13T21:39:24Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。