論文の概要: On the impossibility of non-trivial accuracy under fairness constraints
- arxiv url: http://arxiv.org/abs/2107.06944v1
- Date: Wed, 14 Jul 2021 19:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-17 04:26:06.064967
- Title: On the impossibility of non-trivial accuracy under fairness constraints
- Title(参考訳): 公平性制約下における非自明な精度の不可能性について
- Authors: Carlos Pinz\'on, Catuscia Palamidessi, Pablo Piantanida, Frank
Valencia
- Abstract要約: 機械学習(ML)における公正性に関する主な懸念の1つは、それを達成するためには、ある程度の正確さを放棄する必要があることである。
この結果から,EO(Equal chance)が達成できる確率的データソースは,精度の低下によってのみ達成できることが示唆された。
- 参考スコア(独自算出の注目度): 26.418304315499064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the main concerns about fairness in machine learning (ML) is that, in
order to achieve it, one may have to renounce to some accuracy. Having this
trade-off in mind, Hardt et al. have proposed the notion of equal opportunities
(EO), designed so as to be compatible with accuracy. In fact, it can be shown
that if the source of input data is deterministic, the two notions go well
along with each other. In the probabilistic case, however, things change.
As we show, there are probabilistic data sources for which EO can only be
achieved at the total detriment of accuracy, i.e. among the models that achieve
EO, those whose prediction does not depend on the input have the highest
accuracy.
- Abstract(参考訳): 機械学習(ML)における公正性に関する主な懸念の1つは、それを達成するためには、ある程度の正確さを放棄する必要があることである。
このトレードオフを念頭に置いて、Hardtら。
等機会の概念(EO)を提案しており、正確性に適合するように設計されている。
実際、入力データのソースが決定論的であれば、2つの概念は互いにうまく一致していることを示すことができる。
しかし、確率的な場合、状況は変わる。
私たちが示すように、eoが達成できる確率的データソースは、正確性を完全に損なうことでしかありません。
EOを達成するモデルの中では、入力に依存しない予測値が最も正確である。
関連論文リスト
- Scoring Rules and Calibration for Imprecise Probabilities [7.289672463326423]
我々は、適切なスコアリングルールとキャリブレーションが2つの異なるゴールを果たすと主張している。
本稿では,機械学習の実践における理論的洞察,特に分布ロバスト性における損失関数の選択に関する微妙な落とし穴を例示する。
論文 参考訳(メタデータ) (2024-10-30T13:29:47Z) - Predicting generalization performance with correctness discriminators [64.00420578048855]
未確認データに対して,金のラベルを必要とせず,精度の上下境界を確立する新しいモデルを提案する。
予測された上境界と下限の間に金の精度が確実に成立する様々なタグ付け、構文解析、意味解析タスクを示す。
論文 参考訳(メタデータ) (2023-11-15T22:43:42Z) - BaBE: Enhancing Fairness via Estimation of Latent Explaining Variables [6.7932860553262415]
両集団間の不公平な差別の問題を考察し,公平性を達成するための事前処理手法を提案する。
BaBEはベイズ推論と期待最大化法を組み合わせたアプローチである。
合成および実データ集合の実験により、我々の手法は高い精度と高い公平性を提供することを示した。
論文 参考訳(メタデータ) (2023-07-06T09:53:56Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - VisFIS: Visual Feature Importance Supervision with
Right-for-the-Right-Reason Objectives [84.48039784446166]
モデルFI監督は、VQAモデルの精度と、Right-to-the-Right-Reasonメトリクスの性能を有意義に向上させることができることを示す。
我々の最高のパフォーマンス手法であるVisual Feature Importance Supervision (VisFIS)は、ベンチマークVQAデータセットで強いベースラインを上回ります。
説明が妥当で忠実な場合には予測がより正確になる。
論文 参考訳(メタデータ) (2022-06-22T17:02:01Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Emergent Unfairness in Algorithmic Fairness-Accuracy Trade-Off Research [2.6397379133308214]
このような仮定は、しばしば暗黙的かつ未検討のまま残され、矛盾した結論につながると我々は主張する。
この研究の目的は、機械学習モデルの公平性を改善することだが、これらの未検討の暗黙の仮定は、実際、突発的な不公平をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-02-01T22:02:14Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Estimation of Accurate and Calibrated Uncertainties in Deterministic
models [0.8702432681310401]
我々は,決定論的予測を確率論的予測に変換する手法を考案した。
そのためには,そのようなモデルの精度と信頼性(校正)を損なう必要がある。
隠れたノイズを正確に回収できる合成データと、大規模な実世界のデータセットの両方について、いくつかの例を示す。
論文 参考訳(メタデータ) (2020-03-11T04:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。