論文の概要: Prediction without Preclusion: Recourse Verification with Reachable Sets
- arxiv url: http://arxiv.org/abs/2308.12820v1
- Date: Thu, 24 Aug 2023 14:24:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 13:45:34.512400
- Title: Prediction without Preclusion: Recourse Verification with Reachable Sets
- Title(参考訳): プリクルージョンのない予測:到達可能な集合によるリコース検証
- Authors: Avni Kothari, Bogdan Kulynych, Tsui-Wei Weng, Berk Ustun
- Abstract要約: 機械学習モデルは、ローンの受取人、面接、または公共の利益を決定するためにしばしば使用される。
これらのモデルを構築するための標準的なテクニックは、人に関する機能を使用するが、その行動可能性を見落としている。
モデルでは、固定された予測を割り当てることができるため、ローン、インタビュー、利益を拒否された消費者は永久にロックアウトされる可能性がある。
- 参考スコア(独自算出の注目度): 18.25009227503682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are often used to decide who will receive a loan, a
job interview, or a public benefit. Standard techniques to build these models
use features about people but overlook their actionability. In turn, models can
assign predictions that are fixed, meaning that consumers who are denied loans,
interviews, or benefits may be permanently locked out from access to credit,
employment, or assistance. In this work, we introduce a formal testing
procedure to flag models that assign fixed predictions that we call recourse
verification. We develop machinery to reliably determine if a given model can
provide recourse to its decision subjects from a set of user-specified
actionability constraints. We demonstrate how our tools can ensure recourse and
adversarial robustness in real-world datasets and use them to study the
infeasibility of recourse in real-world lending datasets. Our results highlight
how models can inadvertently assign fixed predictions that permanently bar
access, and we provide tools to design algorithms that account for
actionability when developing models.
- Abstract(参考訳): 機械学習モデルは、ローンの受取人、面接、または公共の利益を決定するためにしばしば使用される。
これらのモデルを構築する標準的な技術は、人の機能を使うが、その動作性を見落としている。
モデルでは、固定された予測を割り当てることができるため、融資、面接、利益を拒否された消費者は、クレジット、雇用、援助へのアクセスから永久にロックアウトされる可能性がある。
本研究では,リコース検証と呼ばれる固定予測を割り当てるモデルをフラグする形式的なテスト手順を導入する。
我々は、ユーザが指定した一連の動作可能性制約から、与えられたモデルが決定対象にリコースできるかどうかを確実に判断する機械を開発する。
実世界のデータセットにおけるリコースと敵対的ロバスト性を保証し、実世界のレンディングデータセットにおけるリコースの非実現性を研究するために、当社のツールがどのように活用できるかを実証する。
その結果、モデルが永久バーアクセスを行う固定予測を不注意に割り当てることができることを明らかにし、モデルを開発する際の動作性を考慮したアルゴリズムを設計するツールを提供する。
関連論文リスト
- Robots That Ask For Help: Uncertainty Alignment for Large Language Model
Planners [85.03486419424647]
KnowNoは、大きな言語モデルの不確実性を測定し、調整するためのフレームワークである。
KnowNoは、タスク完了に関する統計的保証を提供する共形予測理論に基づいている。
論文 参考訳(メタデータ) (2023-07-04T21:25:12Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Plex: Towards Reliability using Pretrained Large Model Extensions [69.13326436826227]
我々は,視覚と言語モダリティのための事前訓練された大規模モデル拡張であるViT-PlexとT5-Plexを開発した。
Plexは信頼性タスク間の最先端性を大幅に改善し、従来のプロトコルを単純化する。
最大1Bパラメータまでのモデルサイズに対するスケーリング効果と,最大4B例までのデータセットサイズを事前トレーニングした。
論文 参考訳(メタデータ) (2022-07-15T11:39:37Z) - Specifying and Testing $k$-Safety Properties for Machine-Learning Models [20.24045879238586]
フォーマルなメソッドで使われる仕様からインスピレーションを得て、$k$の異なる実行、いわゆる$k$-safetyプロパティを表現します。
ここでは、機械学習モデルに対する$k$-safetyプロパティの幅広い適用性を示し、それらを表現するための最初の仕様言語を示す。
我々のフレームワークは、プロパティ違反を特定するのに有効であり、検出されたバグはより良いモデルのトレーニングに使用できる。
論文 参考訳(メタデータ) (2022-06-13T11:35:55Z) - Increasing the Cost of Model Extraction with Calibrated Proof of Work [25.096196576476885]
モデル抽出攻撃では、敵はパブリックAPIを通じて公開された機械学習モデルを盗むことができる。
我々は,モデルの予測を読み取る前に,ユーザが作業の証明を完了するように提案する。
論文 参考訳(メタデータ) (2022-01-23T12:21:28Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Transparency, Auditability and eXplainability of Machine Learning Models
in Credit Scoring [4.370097023410272]
本稿では,信用スコアリングモデルを理解しやすくするために考慮すべきさまざまな次元について検討する。
本稿では,クレジットスコアにどのように適用できるか,そしてスコアカードの解釈可能性と比較する方法について概説する。
論文 参考訳(メタデータ) (2020-09-28T15:00:13Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - ViCE: Visual Counterfactual Explanations for Machine Learning Models [13.94542147252982]
本稿では,対話型視覚分析ツールViCEを提案する。
結果が視覚インターフェースに効果的に表示され、そのデータとモデルを探索するための対話的手法が提供される。
論文 参考訳(メタデータ) (2020-03-05T04:43:02Z) - A Hierarchy of Limitations in Machine Learning [0.0]
本稿では,社会に応用された機械学習におけるモデルの概念的,手続き的,統計的制限の包括的,構造化された概要を論じる。
モデラー自身は、記述された階層を使って、可能な障害点を特定し、それらに対処する方法を考えることができます。
機械学習モデルの消費者は、機械学習を適用するかどうか、場所、方法に関する決定に直面したときに、何を問うべきかを知ることができる。
論文 参考訳(メタデータ) (2020-02-12T19:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。