論文の概要: FLEA: Provably Fair Multisource Learning from Unreliable Training Data
- arxiv url: http://arxiv.org/abs/2106.11732v1
- Date: Tue, 22 Jun 2021 13:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:49:18.705188
- Title: FLEA: Provably Fair Multisource Learning from Unreliable Training Data
- Title(参考訳): FLEA: 信頼できないトレーニングデータから学ぶマルチソース
- Authors: Eugenia Iofinova, Nikola Konstantinov, Christoph H. Lampert
- Abstract要約: FLEAは,公正性や正確性に悪影響を及ぼす可能性のあるデータソースを,学習システムが識別し,抑制することのできるフィルタリングベースのアルゴリズムである。
複数のデータセットに対する多種多様な実験により,本手法の有効性を示す。
- 参考スコア(独自算出の注目度): 28.382147902475545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness-aware learning aims at constructing classifiers that not only make
accurate predictions, but do not discriminate against specific groups. It is a
fast-growing area of machine learning with far-reaching societal impact.
However, existing fair learning methods are vulnerable to accidental or
malicious artifacts in the training data, which can cause them to unknowingly
produce unfair classifiers. In this work we address the problem of fair
learning from unreliable training data in the robust multisource setting, where
the available training data comes from multiple sources, a fraction of which
might be not representative of the true data distribution. We introduce FLEA, a
filtering-based algorithm that allows the learning system to identify and
suppress those data sources that would have a negative impact on fairness or
accuracy if they were used for training. We show the effectiveness of our
approach by a diverse range of experiments on multiple datasets. Additionally
we prove formally that, given enough data, FLEA protects the learner against
unreliable data as long as the fraction of affected data sources is less than
half.
- Abstract(参考訳): 公正な学習は、正確な予測を行うだけでなく、特定のグループを識別しない分類器を構築することを目的としている。
それは急速に成長する機械学習の分野であり、社会への影響は大きい。
しかし、既存のフェアラーニング手法は、トレーニングデータの偶然または悪意のあるアーティファクトに対して脆弱であり、不公平な分類器を知らないうちに生成する可能性がある。
本研究は、複数のソースから利用可能なトレーニングデータが得られ、その一部が真のデータ分布を表すものではないかもしれない、堅牢なマルチソース環境で、信頼性の低いトレーニングデータから公平に学習する問題に対処する。
本研究では,学習システムにおいて,公平性や正確性に悪影響を及ぼす可能性のあるデータソースを識別・抑制できるフィルタリングベースのアルゴリズムであるfleaを提案する。
複数のデータセットに対する多種多様な実験により,本手法の有効性を示す。
さらに、FLEAは、十分なデータがあれば、影響を受けるデータソースのごく一部が半分未満である限り、学習者が信頼できないデータから保護することを正式に証明する。
関連論文リスト
- The Impact of Data Distribution on Fairness and Robustness in Federated
Learning [7.209240273742224]
Federated Learning(FL)は、エージェントの集合がデータセットを共有することなく、協調的にモデルをトレーニングできる分散機械学習プロトコルである。
本研究では、局所的なデータ分布の変化が、訓練されたモデルの公平性と特性にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2021-11-29T22:04:50Z) - Fairness-Aware Learning from Corrupted Data [33.52974791836553]
任意のデータ操作下での公平性を考慮した学習について検討する。
このバイアスの強さは、データ内の未表現の保護されたグループで学習する際の問題の増加を示す。
2つの自然学習アルゴリズムが、逆データ操作の精度と公正性の両面から順序-最適保証を実現することを証明した。
論文 参考訳(メタデータ) (2021-02-11T13:48:41Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - On the Sample Complexity of Adversarial Multi-Source PAC Learning [46.24794665486056]
単一ソース設定では、トレーニングデータの一定割合を破損させるパワーを持つ相手がPAC学習を防止できる。
意外なことに、マルチソース設定では、敵が任意にデータソースの固定された部分を破壊することができるため、同じことが当てはまらない。
また, 他者とのデータ共有を協調的に行うことで, 悪意のある参加者でも有益であることが示唆された。
論文 参考訳(メタデータ) (2020-02-24T17:19:04Z) - FR-Train: A Mutual Information-Based Approach to Fair and Robust
Training [33.385118640843416]
本稿では,公正でロバストなモデルトレーニングを行うFR-Trainを提案する。
我々の実験では、FR-Trainは、データ中毒の存在下での公正さと正確さのほとんど低下を示さなかった。
論文 参考訳(メタデータ) (2020-02-24T13:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。