論文の概要: Fair Classifiers that Abstain without Harm
- arxiv url: http://arxiv.org/abs/2310.06205v1
- Date: Mon, 9 Oct 2023 23:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 21:16:25.597794
- Title: Fair Classifiers that Abstain without Harm
- Title(参考訳): ハームのない公平な分類法
- Authors: Tongxin Yin, Jean-Fran\c{c}ois Ton, Ruocheng Guo, Yuanshun Yao,
Mingyan Liu, Yang Liu
- Abstract要約: 批判的な応用においては、分類器は人間に意思決定を延期することが不可欠である。
本稿では,既存の分類器が特定のサンプルの予測を選択的に禁ずるポストホック法を提案する。
この枠組みは,同程度の禁制率で精度を犠牲にすることなく,公平性の違いの観点から既存手法より優れる。
- 参考スコア(独自算出の注目度): 24.90899074869189
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In critical applications, it is vital for classifiers to defer
decision-making to humans. We propose a post-hoc method that makes existing
classifiers selectively abstain from predicting certain samples. Our abstaining
classifier is incentivized to maintain the original accuracy for each
sub-population (i.e. no harm) while achieving a set of group fairness
definitions to a user specified degree. To this end, we design an Integer
Programming (IP) procedure that assigns abstention decisions for each training
sample to satisfy a set of constraints. To generalize the abstaining decisions
to test samples, we then train a surrogate model to learn the abstaining
decisions based on the IP solutions in an end-to-end manner. We analyze the
feasibility of the IP procedure to determine the possible abstention rate for
different levels of unfairness tolerance and accuracy constraint for achieving
no harm. To the best of our knowledge, this work is the first to identify the
theoretical relationships between the constraint parameters and the required
abstention rate. Our theoretical results are important since a high abstention
rate is often infeasible in practice due to a lack of human resources. Our
framework outperforms existing methods in terms of fairness disparity without
sacrificing accuracy at similar abstention rates.
- Abstract(参考訳): 重要な応用において、分類器は人間に対する意思決定を遅らせることが不可欠である。
既存の分類器が特定のサンプルの予測を選択的に拒否するポストホック法を提案する。
ユーザが指定した程度に対してグループフェアネス定義のセットを達成しつつ、各サブ人口(すなわち無害)に対する元の正確性を維持するため、禁断分類器にインセンティブを与えます。
そこで我々は,一連の制約を満たすために,各トレーニングサンプルに対して留意決定を割り当てる Integer Programming (IP) 手順を設計する。
テストサンプルの停止決定を一般化するために、サロゲートモデルをトレーニングし、IPソリューションに基づいた停止決定をエンドツーエンドで学習する。
我々は,IPプロシージャの実現可能性を分析し,無害化のための不公平性許容度と精度制約の異なるレベルの禁忌率を決定する。
我々の知る限りでは、この研究は制約パラメータと要求の禁忌率の間の理論的関係を初めて特定するものである。
我々の理論的結果は、人的資源の不足のため、実際に高い禁忌率が実現できないことが多いため重要である。
この枠組みは,同程度の禁制率で精度を犠牲にすることなく,公平性の違いの観点から既存手法より優れる。
関連論文リスト
- Mitigating LLM Hallucinations via Conformal Abstention [70.83870602967625]
我々は,大言語モデルが一般ドメインでの応答をいつ無視すべきかを決定するための,原則化された手順を開発する。
我々は、幻覚率(エラー率)の厳密な理論的保証の恩恵を受けるため、共形予測手法を活用して、禁忌手順を開発する。
実験によって得られた共形禁忌法は, 種々の閉書, オープンドメイン生成質問応答データセットに, 幻覚率を確実に拘束する。
論文 参考訳(メタデータ) (2024-04-04T11:32:03Z) - Leveraging Uncertainty Estimates To Improve Classifier Performance [4.4951754159063295]
バイナリ分類では、正のクラスのモデルスコアが、アプリケーション要求に基づいて選択されたしきい値を超えるかどうかに基づいて、インスタンスのラベルを予測する。
しかし、モデルスコアは真の肯定率と一致しないことが多い。
これは特に、クラス間の差分サンプリングを含むトレーニングや、トレインとテスト設定間の分散ドリフトがある場合に当てはまる。
論文 参考訳(メタデータ) (2023-11-20T12:40:25Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Classification with abstention but without disparities [5.025654873456756]
我々は、異なる影響を回避しつつ、予測を棄却できる汎用的な分類アルゴリズムを構築した。
提案したアルゴリズムに対して,有限サンプルリスク,公平性,および留意保証を確立する。
本手法は, 適度な禁制率により, リスク・フェアネストレードオフを回避できることを実証的に示す。
論文 参考訳(メタデータ) (2021-02-24T12:43:55Z) - Stopping criterion for active learning based on deterministic
generalization bounds [4.518012967046983]
本稿では,アクティブな学習を自動的に停止するための基準を提案する。
提案した停止基準は、期待される一般化誤差と仮説テストの違いに基づいている。
人工データセットと実データの両方を用いた実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-05-15T08:15:47Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z) - Learning Individually Fair Classifier with Path-Specific Causal-Effect
Constraint [31.86959207229775]
本稿では,個々に公平な分類器を学習するための枠組みを提案する。
個人不公平(PIU)の確率を定義し、データから推定できるPIUの上界がゼロに近いように制御される最適化問題を解く。
実験結果から,本手法は精度のわずかなコストで,個別に公平な分類器を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-17T02:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。