論文の概要: To Split or Not to Split: The Impact of Disparate Treatment in
Classification
- arxiv url: http://arxiv.org/abs/2002.04788v4
- Date: Thu, 14 Apr 2022 01:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 20:06:09.942951
- Title: To Split or Not to Split: The Impact of Disparate Treatment in
Classification
- Title(参考訳): 分別・分別が分別に及ぼす影響
- Authors: Hao Wang, Hsiang Hsu, Mario Diaz, Flavio P. Calmon
- Abstract要約: 異なる処理は、機械学習モデルが機密属性に基づいて個人に対して異なる決定を下すときに発生する。
本稿では,分類器の分割による性能改善の定量化のための分割処理の利点を紹介する。
我々は,小規模凸プログラムを解くことで効率よく計算できる分割利益の等価表現を証明した。
- 参考スコア(独自算出の注目度): 8.325775867295814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disparate treatment occurs when a machine learning model yields different
decisions for individuals based on a sensitive attribute (e.g., age, sex). In
domains where prediction accuracy is paramount, it could potentially be
acceptable to fit a model which exhibits disparate treatment. To evaluate the
effect of disparate treatment, we compare the performance of split classifiers
(i.e., classifiers trained and deployed separately on each group) with
group-blind classifiers (i.e., classifiers which do not use a sensitive
attribute). We introduce the benefit-of-splitting for quantifying the
performance improvement by splitting classifiers. Computing the
benefit-of-splitting directly from its definition could be intractable since it
involves solving optimization problems over an infinite-dimensional functional
space. Under different performance measures, we (i) prove an equivalent
expression for the benefit-of-splitting which can be efficiently computed by
solving small-scale convex programs; (ii) provide sharp upper and lower bounds
for the benefit-of-splitting which reveal precise conditions where a
group-blind classifier will always suffer from a non-trivial performance gap
from the split classifiers. In the finite sample regime, splitting is not
necessarily beneficial and we provide data-dependent bounds to understand this
effect. Finally, we validate our theoretical results through numerical
experiments on both synthetic and real-world datasets.
- Abstract(参考訳): 異なる治療は、機械学習モデルが敏感な属性(例えば年齢、性別)に基づいて個人に対して異なる判断を下すときに起こる。
予測精度が最重要である領域では、異なる処理を示すモデルに適合することが考えられる。
異なる処理の効果を評価するため,分割分類器(各グループで個別に訓練・展開された分類器)とグループ盲分類器(敏感属性を使用しない分類器)の性能を比較した。
分類器を分割することで性能改善を定量化する。
無限次元関数空間上の最適化問題を解き明かすため、その定義から直接散逸する利点を計算することは難解である。
異なるパフォーマンス対策の下では
(i)小規模凸プログラムの解法により効率的に計算できる散布の便益の等価表現を証明すること。
(ii)グループブレンド分類器が常に分割分類器からの非自明な性能ギャップに苦しむ正確な条件を明らかにする、分割の便益のための鋭い上限と下限を与える。
有限サンプルレジームでは、分割は必ずしも有益ではなく、この効果を理解するためにデータ依存境界を提供する。
最後に,合成データセットと実世界のデータセットの数値実験により理論的結果を検証する。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Extension of Transformational Machine Learning: Classification Problems [0.0]
本研究では、薬物発見における変換機械学習(TML)の適用と性能について検討する。
メタ学習アルゴリズムであるTMLは、さまざまなドメインにまたがる共通属性の活用に優れています。
薬物発見プロセスは複雑で時間を要するが、予測精度の増大から大きな恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-08-07T07:34:18Z) - Malign Overfitting: Interpolation Can Provably Preclude Invariance [30.776243638012314]
補間にもかかわらずモデルを適切に一般化する「良性過剰適合」は、堅牢性や公正性が望ましい設定に好ましくない可能性があることを示す。
本研究では,非補間型分類器の確率的不変性を学習するアルゴリズムを提案し,解析する。
論文 参考訳(メタデータ) (2022-11-28T19:17:31Z) - Fine-grained Retrieval Prompt Tuning [149.9071858259279]
微粒な検索プロンプトチューニングは, サンプルプロンプトと特徴適応の観点から, きめの細かい検索タスクを実行するために, 凍結した事前学習モデルを操る。
学習可能なパラメータが少ないFRPTは、広く使われている3つの細粒度データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-29T04:10:04Z) - The Impact of Using Regression Models to Build Defect Classifiers [13.840006058766766]
継続的欠陥数を欠陥クラスと非欠陥クラスに分類することは、よくあるプラクティスである。
両手法を用いて構築した欠陥分類器の性能と解釈を比較した。
論文 参考訳(メタデータ) (2022-02-12T22:12:55Z) - How Nonconformity Functions and Difficulty of Datasets Impact the
Efficiency of Conformal Classifiers [0.1611401281366893]
整合分類では、システムは1つではなく複数のクラスラベルを出力できる。
ニューラルネットワークに基づく共形分類器の場合、逆確率は予測ラベルの平均数を最小化することができる。
この2つの非整合関数の性質を結合する手法を提案する。
論文 参考訳(メタデータ) (2021-08-12T11:50:12Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Asymptotic Supervised Predictive Classifiers under Partition
Exchangeability [0.0]
結果は、無限のトレーニングまたはテストデータの下でこれらの分類器の収束を示しています。
これは実用上重要な結果であり、十分な量のデータが存在する場合には、より単純な辺縁分類器を計算的に高価な同時処理に置き換えることができる。
論文 参考訳(メタデータ) (2021-01-26T17:17:40Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Almost-Matching-Exactly for Treatment Effect Estimation under Network
Interference [73.23326654892963]
本研究では,観測ネットワーク上でユニットが接続されたランダム化実験から直接処理効果を回復するマッチング手法を提案する。
本手法は, 近傍グラフ内の一意部分グラフの個数にほぼ一致する。
論文 参考訳(メタデータ) (2020-03-02T15:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。