論文の概要: Learning Models for Actionable Recourse
- arxiv url: http://arxiv.org/abs/2011.06146v3
- Date: Sat, 19 Mar 2022 19:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 06:32:31.051727
- Title: Learning Models for Actionable Recourse
- Title(参考訳): 行動可能なリコースのための学習モデル
- Authors: Alexis Ross, Himabindu Lakkaraju, Osbert Bastani
- Abstract要約: 本研究では, リスクの高い個人に対して, 精度を犠牲にすることなく, 理論的に言論を保証するアルゴリズムを提案する。
実データに対する広範な実験により,本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 31.30850378503406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning models are increasingly deployed in high-stakes domains
such as legal and financial decision-making, there has been growing interest in
post-hoc methods for generating counterfactual explanations. Such explanations
provide individuals adversely impacted by predicted outcomes (e.g., an
applicant denied a loan) with recourse -- i.e., a description of how they can
change their features to obtain a positive outcome. We propose a novel
algorithm that leverages adversarial training and PAC confidence sets to learn
models that theoretically guarantee recourse to affected individuals with high
probability without sacrificing accuracy. We demonstrate the efficacy of our
approach via extensive experiments on real data.
- Abstract(参考訳): 機械学習モデルが法的な意思決定や財務的な意思決定といった高度な領域にますます導入されている中、反事実的説明を生成するポストホック手法への関心が高まっている。
このような説明は、予測された結果(例えば、申請者がローンを拒否するなど)に悪影響を及ぼす個人に、その特徴をどう変えて肯定的な結果を得るかについての説明を与える。
そこで本研究では,攻撃的訓練とpac信頼度セットを活用し,精度を犠牲にすることなく高い確率で影響を受ける個人へのリコースを理論的に保証するモデルを学ぶ新しいアルゴリズムを提案する。
実データに対する広範な実験により,本手法の有効性を実証する。
関連論文リスト
- Bank Loan Prediction Using Machine Learning Techniques [0.0]
我々は機械学習手法を用いて、148,670のインスタンスと37の属性のデータセットに取り組んできた。
最高の性能のアルゴリズムはAdaBoostingであり、99.99%の精度を達成した。
論文 参考訳(メタデータ) (2024-10-11T15:01:47Z) - Inclusive FinTech Lending via Contrastive Learning and Domain Adaptation [9.75150920742607]
フィンテックの貸与は、財政的包摂の促進に重要な役割を果たしてきた。
ローン審査中にアルゴリズムによる意思決定にバイアスがかかる可能性があるという懸念がある。
自己教師付きコントラスト学習とドメイン適応を用いたトランスフォーマーに基づくシーケンシャルローンスクリーニングモデルを提案する。
論文 参考訳(メタデータ) (2023-05-10T01:11:35Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Incentives for Federated Learning: a Hypothesis Elicitation Approach [10.452709936265274]
フェデレーション学習は、分散データソースから機械学習モデルを集めるための有望なパラダイムを提供する。
信頼性のあるフェデレート学習システムの成功は、分散された自己関心のあるユーザーが積極的に参加するという前提に基づいている。
本稿では,ローカルなユーザ側機械学習モデルの真理レポートをインセンティブ化する手法を提案する。
論文 参考訳(メタデータ) (2020-07-21T04:55:31Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。