論文の概要: Fairness-Aware Learning from Corrupted Data
- arxiv url: http://arxiv.org/abs/2102.06004v1
- Date: Thu, 11 Feb 2021 13:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:21:54.920066
- Title: Fairness-Aware Learning from Corrupted Data
- Title(参考訳): 故障データからの公正な学習
- Authors: Nikola Konstantinov, Christoph H. Lampert
- Abstract要約: 任意のデータ操作下での公平性を考慮した学習について検討する。
このバイアスの強さは、データ内の未表現の保護されたグループで学習する際の問題の増加を示す。
2つの自然学習アルゴリズムが、逆データ操作の精度と公正性の両面から順序-最適保証を実現することを証明した。
- 参考スコア(独自算出の注目度): 33.52974791836553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Addressing fairness concerns about machine learning models is a crucial step
towards their long-term adoption in real-world automated systems. While many
approaches have been developed for training fair models from data, little is
known about the effects of data corruption on these methods. In this work we
consider fairness-aware learning under arbitrary data manipulations. We show
that an adversary can force any learner to return a biased classifier, with or
without degrading accuracy, and that the strength of this bias increases for
learning problems with underrepresented protected groups in the data. We also
provide upper bounds that match these hardness results up to constant factors,
by proving that two natural learning algorithms achieve order-optimal
guarantees in terms of both accuracy and fairness under adversarial data
manipulations.
- Abstract(参考訳): 機械学習モデルに対する公平性の懸念に対処することは、現実の自動化システムにおける長期的な採用に向けた重要なステップである。
データから公正なモデルをトレーニングするための多くのアプローチが開発されているが、これらの手法に対するデータ破損の影響についてはほとんど分かっていない。
本研究では,任意のデータ操作下での公平性認識学習を検討する。
また,このバイアスの強みは,データ内の保護されていないグループによる学習問題に対して,学習者に対して,精度を低下させることなく,偏りのある分類器を返さなければならないことを示した。
また、2つの自然な学習アルゴリズムが、逆データ操作の精度と公平性の両方で順序-最適保証を達成できることを証明し、これらの硬さに一致する上限を一定要素に設定する。
関連論文リスト
- Debiasing Machine Unlearning with Counterfactual Examples [31.931056076782202]
我々は、未学習プロセスの背後にある因果要因を分析し、データレベルとアルゴリズムレベルでバイアスを軽減する。
バイアスのあるデータセットによって、忘れるべき知識が消去される、介入に基づくアプローチを導入する。
本手法は,評価指標に基づく既存の機械学習ベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-04-24T09:33:10Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Distraction is All You Need for Fairness [0.0]
本稿では,Distractionモジュールと呼ばれる深層学習モデルの学習戦略を提案する。
この方法は、分類結果に影響を与えるバイアスを制御するのに有効であることが理論的に証明できる。
UCIアダルトおよびヘリテージヘルスデータセットを用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-15T01:46:55Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。