論文の概要: Fair Robust Active Learning by Joint Inconsistency
- arxiv url: http://arxiv.org/abs/2209.10729v1
- Date: Thu, 22 Sep 2022 01:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 12:48:55.000062
- Title: Fair Robust Active Learning by Joint Inconsistency
- Title(参考訳): 不整合によるフェアロバスト能動的学習
- Authors: Tsung-Han Wu, Shang-Tse Chen, Winston H. Hsu
- Abstract要約: 本稿では,従来のFALと対角的堅牢性を統合したFAL(Fair Robust Active Learning)を提案する。
関節不整合(JIN)による簡易かつ効果的なFRAL戦略の開発
本手法は, 良性サンプルと逆性サンプルと, 標準モデルとロバストモデルとの整合性の予測を利用する。
- 参考スコア(独自算出の注目度): 22.150782414035422
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fair Active Learning (FAL) utilized active learning techniques to achieve
high model performance with limited data and to reach fairness between
sensitive groups (e.g., genders). However, the impact of the adversarial
attack, which is vital for various safety-critical machine learning
applications, is not yet addressed in FAL. Observing this, we introduce a novel
task, Fair Robust Active Learning (FRAL), integrating conventional FAL and
adversarial robustness. FRAL requires ML models to leverage active learning
techniques to jointly achieve equalized performance on benign data and
equalized robustness against adversarial attacks between groups. In this new
task, previous FAL methods generally face the problem of unbearable
computational burden and ineffectiveness. Therefore, we develop a simple yet
effective FRAL strategy by Joint INconsistency (JIN). To efficiently find
samples that can boost the performance and robustness of disadvantaged groups
for labeling, our method exploits the prediction inconsistency between benign
and adversarial samples as well as between standard and robust models.
Extensive experiments under diverse datasets and sensitive groups demonstrate
that our method not only achieves fairer performance on benign samples but also
obtains fairer robustness under white-box PGD attacks compared with existing
active learning and FAL baselines. We are optimistic that FRAL would pave a new
path for developing safe and robust ML research and applications such as facial
attribute recognition in biometrics systems.
- Abstract(参考訳): フェアアクティブラーニング(Fair Active Learning, FAL)は、アクティブラーニング技術を利用して、限られたデータで高いモデル性能を達成し、センシティブなグループ(性別など)間の公平性を達成する。
しかし、さまざまな安全クリティカルな機械学習アプリケーションに不可欠な敵攻撃の影響はまだFALでは対処されていない。
そこで本研究では,従来のFALと対角的堅牢性を統合したFAL(Fair Robust Active Learning)を提案する。
FRALは、良質なデータに対する等化性能と、グループ間の敵対的攻撃に対する等化ロバスト性を共同で達成するために、アクティブな学習技術を活用するためにMLモデルを必要とする。
この新たな課題では、従来のFAL手法は一般に計算負荷と非効率という問題に直面している。
そこで我々は,JIN(Joint Inconsistency)による簡易かつ効果的なFRAL戦略を開発した。
ラベル付けのための不利なグループの性能と堅牢性を向上できるサンプルを効率よく見つけるために,本手法では,良性サンプルと逆性サンプルと,標準モデルとロバストモデルとの整合性を予測する。
多様なデータセットとセンシティブなグループによる広範囲な実験により,本手法は良質なサンプルでより公平なパフォーマンスを実現するだけでなく,既存のアクティブラーニングやfalベースラインと比較してホワイトボックスpgd攻撃下でも公平な堅牢性が得られることが示された。
FRALは、バイオメトリックスシステムにおける、安全で堅牢なML研究や顔認識などの応用を開発するための、新たな道を開くことを楽観視しています。
関連論文リスト
- Maximally Separated Active Learning [32.98415531556376]
固定等角超球面点をクラスプロトタイプとして利用する能動的学習法を提案する。
5つのベンチマークデータセットにまたがる既存のアクティブラーニング技術よりも高いパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-26T14:02:43Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - How To Overcome Confirmation Bias in Semi-Supervised Image
Classification By Active Learning [2.1805442504863506]
実世界のアプリケーションでは、クラス間不均衡、クラス内不均衡、クラス間の類似性という3つの課題を提示する。
ランダムサンプリングは、確認バイアスを軽減せず、場合によっては教師付き学習よりもパフォーマンスが悪くなる。
この結果から,実世界の共通の課題の存在下での,アクティブとセミ教師付き学習の組み合わせの可能性についての知見が得られた。
論文 参考訳(メタデータ) (2023-08-16T08:52:49Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FAL-CUR: Fair Active Learning using Uncertainty and Representativeness
on Fair Clustering [16.808400593594435]
フェアクラスタリング,不確実性,代表性(FAL-CUR)を用いたフェアアクティブラーニングという新しい戦略を提案する。
FAL-CURは、均等化オッズの観点から、最先端の手法と比較して、公正度が15%から20%向上する。
A blation study is highlights the important role of fair clustering inserving fairness and the acquisition function in stabilizing the accuracy performance。
論文 参考訳(メタデータ) (2022-09-21T08:28:43Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。