論文の概要: Sample Selection for Fair and Robust Training
- arxiv url: http://arxiv.org/abs/2110.14222v1
- Date: Wed, 27 Oct 2021 07:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 12:29:57.844272
- Title: Sample Selection for Fair and Robust Training
- Title(参考訳): フェアとロバストトレーニングのためのサンプル選択
- Authors: Yuji Roh, Kangwook Lee, Steven Euijong Whang, Changho Suh
- Abstract要約: 公平でロバストなトレーニングのためのサンプル選択に基づくアルゴリズムを提案する。
提案アルゴリズムは,最先端技術に匹敵する公平性と堅牢性が得られることを示す。
- 参考スコア(独自算出の注目度): 28.94276265328868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness and robustness are critical elements of Trustworthy AI that need to
be addressed together. Fairness is about learning an unbiased model while
robustness is about learning from corrupted data, and it is known that
addressing only one of them may have an adverse affect on the other. In this
work, we propose a sample selection-based algorithm for fair and robust
training. To this end, we formulate a combinatorial optimization problem for
the unbiased selection of samples in the presence of data corruption. Observing
that solving this optimization problem is strongly NP-hard, we propose a greedy
algorithm that is efficient and effective in practice. Experiments show that
our algorithm obtains fairness and robustness that are better than or
comparable to the state-of-the-art technique, both on synthetic and benchmark
real datasets. Moreover, unlike other fair and robust training baselines, our
algorithm can be used by only modifying the sampling step in batch selection
without changing the training algorithm or leveraging additional clean data.
- Abstract(参考訳): 公平性と堅牢性は、一緒に対処する必要がある信頼できるAIの重要な要素である。
公平性は偏りのないモデルを学ぶことであり、堅牢性は腐敗したデータから学ぶことであり、一方だけが他方に悪影響を及ぼす可能性があることが知られている。
本研究では,公平かつロバストなトレーニングのためのサンプル選択に基づくアルゴリズムを提案する。
この目的のために,データ破損の存在下でのサンプルの偏りのない選択に対する組合せ最適化問題を定式化する。
この最適化問題の解法がnp難解であることを観察し,実際に効率的かつ効果的である欲望アルゴリズムを提案する。
実験により,本アルゴリズムは,実データセットの合成とベンチマークの両方において,最先端技術に匹敵する公平性と堅牢性が得られることを示した。
さらに、他の公正で堅牢なトレーニングベースラインとは異なり、我々のアルゴリズムは、トレーニングアルゴリズムを変更したり、追加のクリーンデータを活用することなく、バッチ選択のサンプリングステップを変更するだけで使用できる。
関連論文リスト
- Fast & Fair: Efficient Second-Order Robust Optimization for Fairness in
Machine Learning [0.0]
本研究は、より公平なディープニューラルネットワーク(DNN)を開発するための敵の訓練手法を探求する。
DNNは、人種や性別などのセンシティブな属性に対する偏見を継承する可能性があるため、人生を変える結果につながる可能性がある。
本稿では,複数のデータセットの公平性を向上できるロバストな最適化問題を提案する。
論文 参考訳(メタデータ) (2024-01-04T01:02:55Z) - Bandit-Driven Batch Selection for Robust Learning under Label Noise [20.202806541218944]
本稿では,SGD(Gradient Descent)トレーニングにおけるバッチ選択のための新しい手法を提案する。
本手法は,ラベルノイズの存在下での学習過程の最適化に重点を置いている。
論文 参考訳(メタデータ) (2023-10-31T19:19:01Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。