論文の概要: FROC: Building Fair ROC from a Trained Classifier
- arxiv url: http://arxiv.org/abs/2412.14724v1
- Date: Thu, 19 Dec 2024 10:47:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:30:28.974104
- Title: FROC: Building Fair ROC from a Trained Classifier
- Title(参考訳): FROC: 訓練された分類器から公正なROCを構築する
- Authors: Avyukta Manjunatha Vummintala, Shantanu Das, Sujit Gujar,
- Abstract要約: 実践者がどんなしきい値を使っても、その分類器は保護されたグループの両方に公平であるべきである。
我々は、ある分類器の出力を$varepsilon_p$-Equalized ROCを満たす確率的分類器に変換するために、線形時間アルゴリズム、すなわち textttFROC を設計する。
- 参考スコア(独自算出の注目度): 6.720525231244786
- License:
- Abstract: This paper considers the problem of fair probabilistic binary classification with binary protected groups. The classifier assigns scores, and a practitioner predicts labels using a certain cut-off threshold based on the desired trade-off between false positives vs. false negatives. It derives these thresholds from the ROC of the classifier. The resultant classifier may be unfair to one of the two protected groups in the dataset. It is desirable that no matter what threshold the practitioner uses, the classifier should be fair to both the protected groups; that is, the $\mathcal{L}_p$ norm between FPRs and TPRs of both the protected groups should be at most $\varepsilon$. We call such fairness on ROCs of both the protected attributes $\varepsilon_p$-Equalized ROC. Given a classifier not satisfying $\varepsilon_1$-Equalized ROC, we aim to design a post-processing method to transform the given (potentially unfair) classifier's output (score) to a suitable randomized yet fair classifier. That is, the resultant classifier must satisfy $\varepsilon_1$-Equalized ROC. First, we introduce a threshold query model on the ROC curves for each protected group. The resulting classifier is bound to face a reduction in AUC. With the proposed query model, we provide a rigorous theoretical analysis of the minimal AUC loss to achieve $\varepsilon_1$-Equalized ROC. To achieve this, we design a linear time algorithm, namely \texttt{FROC}, to transform a given classifier's output to a probabilistic classifier that satisfies $\varepsilon_1$-Equalized ROC. We prove that under certain theoretical conditions, \texttt{FROC}\ achieves the theoretical optimal guarantees. We also study the performance of our \texttt{FROC}\ on multiple real-world datasets with many trained classifiers.
- Abstract(参考訳): 本稿では,二項保護群を用いた確率的二項分類の問題について考察する。
分類器はスコアを割り当て、実践者は偽陽性と偽陰性との所望のトレードオフに基づいて特定のカットオフしきい値を用いてラベルを予測する。
この閾値は分類器のROCから導かれる。
結果の分類器は、データセット内の2つの保護されたグループのうちの1つに対して不公平であるかもしれない。
つまり、保護されたグループのFPRとTPRの間の$\mathcal{L}_p$ノルムは、少なくとも$\varepsilon$である。
保護属性である $\varepsilon_p$-Equalized ROC の ROC に対してそのようなフェアネスを呼ぶ。
例えば、$\varepsilon_1$-Equalized ROCを満足しない分類器を考えると、与えられた(潜在的に不公平な)分類器の出力(スコア)を適当にランダム化して公正な分類器に変換する後処理法を設計することを目指している。
つまり、結果の分類器は$\varepsilon_1$-Equalized ROCを満たす必要がある。
まず, 各保護群に対するROC曲線に対するしきい値クエリモデルを提案する。
その結果、分類器はAUCの減少に直面している。
提案したクエリモデルを用いて、最小AUC損失の厳密な理論的解析を行い、$\varepsilon_1$-Equalized ROCを実現する。
これを実現するために、与えられた分類器の出力を$\varepsilon_1$-Equalized ROCを満たす確率的分類器に変換する線形時間アルゴリズム、すなわち「texttt{FROC}」を設計する。
ある種の理論的条件下では、 \texttt{FROC}\ は理論上の最適保証を達成する。
また,多くの訓練された分類器を持つ実世界の複数のデータセットに対して,その性能について検討した。
関連論文リスト
- SPLITZ: Certifiable Robustness via Split Lipschitz Randomized Smoothing [8.471466670802817]
敵の例に証明可能な堅牢性を提供するための2つのアプローチがある。
実用的で斬新なアプローチである textitSPLITZ を提案する。
textitSPLITZは、既存の最先端のアプローチを一貫して改善することを示す。
論文 参考訳(メタデータ) (2024-07-03T05:13:28Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Distribution-Free Inference for the Regression Function of Binary
Classification [0.0]
本稿では,ユーザの信頼度レベルに対する真の回帰関数に対して,正確に,分布自由で,漸近的に保証されていない信頼領域を構築するための再サンプリングフレームワークを提案する。
構築された信頼領域は強い整合性、すなわち、任意の偽モデルが確率 1 で長期にわたって除外されることが証明された。
論文 参考訳(メタデータ) (2023-08-03T15:52:27Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Robust Classification Under $\ell_0$ Attack for the Gaussian Mixture
Model [39.414875342234204]
フィルタとトランケーションの2つの主要モジュールを持つFilTrunと呼ばれる新しい分類アルゴリズムを開発した。
敵対的摂動の効果が完全に中和できるかどうかを判断する敵対的予算の段階遷移など、興味深い行動を示すいくつかの例を議論する。
論文 参考訳(メタデータ) (2021-04-05T23:31:25Z) - On the robustness of randomized classifiers to adversarial examples [11.359085303200981]
確率指標を用いて局所リプシッツ性を強制するランダム化分類器の堅牢性の新しい概念を紹介する。
本研究の結果は,温和な仮説下での幅広い機械学習モデルに適用可能であることを示す。
トレーニングしたすべての堅牢なモデルは、最新の精度を同時に達成できます。
論文 参考訳(メタデータ) (2021-02-22T10:16:58Z) - Certifying Confidence via Randomized Smoothing [151.67113334248464]
ランダムな平滑化は、高次元の分類問題に対して良好な証明されたロバスト性を保証することが示されている。
ほとんどの平滑化法は、下層の分類器が予測する信頼性に関する情報を与えてくれない。
そこで本研究では,スムーズな分類器の予測信頼度を評価するために,認証ラジイを生成する手法を提案する。
論文 参考訳(メタデータ) (2020-09-17T04:37:26Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。