論文の概要: FairSAM: Fair Classification on Corrupted Data Through Sharpness-Aware Minimization
- arxiv url: http://arxiv.org/abs/2503.22934v1
- Date: Sat, 29 Mar 2025 01:51:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:38:07.803779
- Title: FairSAM: Fair Classification on Corrupted Data Through Sharpness-Aware Minimization
- Title(参考訳): FairSAM: シャープネスを意識した最小化による破損したデータの公平な分類
- Authors: Yucong Dai, Jie Ji, Xiaolong Ma, Yongkai Wu,
- Abstract要約: クリーンなデータに基づいてトレーニングされた画像分類モデルは、しばしば、破損したデータをテストする際に大きなパフォーマンス劣化に悩まされる。
この劣化は全体的なパフォーマンスに影響を及ぼすだけでなく、様々な階層のサブグループに不均等に影響を与え、重要なアルゴリズムバイアスの懸念を引き起こす。
既存の公平性を意識した機械学習手法は、性能格差を減らすことを目的としているが、データの破損に直面した場合、堅牢で公平な精度を維持することは困難である。
我々は、アンダーラインFairnessを指向した戦略をアンダーラインSAMに統合した新しいフレームワークである textbfFairSAM を提案する。
- 参考スコア(独自算出の注目度): 12.178322948983263
- License:
- Abstract: Image classification models trained on clean data often suffer from significant performance degradation when exposed to testing corrupted data, such as images with impulse noise, Gaussian noise, or environmental noise. This degradation not only impacts overall performance but also disproportionately affects various demographic subgroups, raising critical algorithmic bias concerns. Although robust learning algorithms like Sharpness-Aware Minimization (SAM) have shown promise in improving overall model robustness and generalization, they fall short in addressing the biased performance degradation across demographic subgroups. Existing fairness-aware machine learning methods - such as fairness constraints and reweighing strategies - aim to reduce performance disparities but hardly maintain robust and equitable accuracy across demographic subgroups when faced with data corruption. This reveals an inherent tension between robustness and fairness when dealing with corrupted data. To address these challenges, we introduce one novel metric specifically designed to assess performance degradation across subgroups under data corruption. Additionally, we propose \textbf{FairSAM}, a new framework that integrates \underline{Fair}ness-oriented strategies into \underline{SAM} to deliver equalized performance across demographic groups under corrupted conditions. Our experiments on multiple real-world datasets and various predictive tasks show that FairSAM successfully reconciles robustness and fairness, offering a structured solution for equitable and resilient image classification in the presence of data corruption.
- Abstract(参考訳): クリーンなデータに基づいてトレーニングされた画像分類モデルは、インパルスノイズ、ガウスノイズ、環境騒音などの劣化したデータに曝露された場合、大きなパフォーマンス劣化に悩まされることが多い。
この劣化は全体的なパフォーマンスに影響を及ぼすだけでなく、様々な階層のサブグループに不均等に影響を与え、重要なアルゴリズムバイアスの懸念を引き起こす。
Sharpness-Aware Minimization (SAM)のような堅牢な学習アルゴリズムは、全体的なモデルロバスト性と一般化を改善することを約束している。
フェアネス制約やリウィーディング戦略など、既存のフェアネスを考慮した機械学習手法は、パフォーマンスの格差を減らすことを目的としているが、データの破損に直面した場合、階層的なサブグループ間で堅牢で公平な精度を維持することは困難である。
これは、破損したデータを扱うとき、堅牢性と公正性の間に固有の緊張関係を明らかにします。
これらの課題に対処するために、データ破損下でのサブグループ間での性能劣化を評価するために特別に設計された新しい指標を紹介した。
さらに, 階層群間の等化性能を実現するために, センダーライン{Fair}ネス指向戦略を組み込んだ新しいフレームワークである「textbf{FairSAM}」を提案する。
複数の実世界のデータセットと様々な予測タスクに関する実験により、FairSAMはロバストネスとフェアネスの調整に成功し、データ破損の存在下での公平でレジリエントな画像分類のための構造化されたソリューションを提供することを示した。
関連論文リスト
- Fairness of Deep Ensembles: On the interplay between per-group task difficulty and under-representation [9.11104048176204]
組立は、機械学習におけるモデルの一般的な性能を改善する効果的な方法として一般的に考えられている。
単純で簡単な手法が相違を緩和し、特に性能の低い部分群に利益をもたらすことを示す。
我々は,サブグループ下表現と各グループ固有の課題の難易度という,バイアスをもたらす可能性のある2つの要因間の相互作用を分析した。
論文 参考訳(メタデータ) (2025-01-24T14:54:01Z) - Fair Class-Incremental Learning using Sample Weighting [27.82760149957115]
本研究は,現在行われている課題のすべてのサンプルを鼻で使用することにより,クラスを含む特定のセンシティブなグループに対して不当な破滅的忘れを生じさせることを示す。
平均勾配ベクトルの方向を変えるために,現在のタスクサンプルのトレーニング重みを調整する,公平なクラス増分学習フレームワークを提案する。
実験により、FSWは実際のデータセットに対する最先端のアプローチよりも精度・公正なトレードオフ結果が得られることが示された。
論文 参考訳(メタデータ) (2024-10-02T08:32:21Z) - Locally Estimated Global Perturbations are Better than Local Perturbations for Federated Sharpness-aware Minimization [81.32266996009575]
フェデレートラーニング(FL)では、クライアント間の複数ステップの更新とデータの均一性が、よりシャープなミニマによるロスランドスケープにつながることが多い。
クライアント側におけるグローバルな摂動方向を局所的に推定する新しいアルゴリズムであるFedLESAMを提案する。
論文 参考訳(メタデータ) (2024-05-29T08:46:21Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - GroupMixNorm Layer for Learning Fair Models [4.324785083027206]
本研究では,ディープラーニングモデルからバイアスを緩和するための,内部処理に基づく新しいGroupMixNorm層を提案する。
提案手法は,全体の精度に最小限の影響を伴って,いくつかの公正度測定値を改善する。
論文 参考訳(メタデータ) (2023-12-19T09:04:26Z) - Mitigating Group Bias in Federated Learning for Heterogeneous Devices [1.181206257787103]
フェデレートラーニング(Federated Learning)は、分散エッジアプリケーションにおけるプライバシ保護モデルトレーニングアプローチとして登場している。
本研究は,プライバシを維持しながら,資源利用のオーバーヘッドを伴わずにグループバイアスを最小限に抑えるグループフェアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T16:53:48Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Rethinking Sampling Strategies for Unsupervised Person Re-identification [59.47536050785886]
我々は,同じフレームワーク下での各種サンプリング戦略と損失関数のパフォーマンス差の理由を解析した。
グループサンプリングを提案し、同じクラスのサンプルをグループに集める。
Market-1501、DukeMTMC-reID、MSMT17の実験は、グループサンプリングが最先端の手法に匹敵する性能を達成することを示した。
論文 参考訳(メタデータ) (2021-07-07T05:39:58Z) - On Adversarial Bias and the Robustness of Fair Machine Learning [11.584571002297217]
異なるサイズと分布の群に同じ重要性を与えることで、トレーニングデータにおけるバイアスの影響を防止できることが、ロバストネスと矛盾する可能性があることを示す。
少数のトレーニングデータのサンプリングやラベル付けを制御できる敵は、制約のないモデルで達成できる以上のテスト精度を著しく削減することができる。
我々は、複数のアルゴリズムとベンチマークデータセットに対する攻撃の実証的な評価を通じて、公正な機械学習の堅牢性を分析する。
論文 参考訳(メタデータ) (2020-06-15T18:17:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。