論文の概要: Re-evaluating Group Robustness via Adaptive Class-Specific Scaling
- arxiv url: http://arxiv.org/abs/2412.15311v1
- Date: Thu, 19 Dec 2024 16:01:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:23:25.043672
- Title: Re-evaluating Group Robustness via Adaptive Class-Specific Scaling
- Title(参考訳): 適応型クラス特化スケーリングによるグループロバストネスの再評価
- Authors: Seonguk Seo, Bohyung Han,
- Abstract要約: 群分散ロバスト最適化は、スプリアス相関とアドレスデータセットバイアスを軽減するために使われる顕著なアルゴリズムである。
既存のアプローチでは、堅牢なアキュラシーの改善が報告されているが、固有のトレードオフのため、平均的な精度が犠牲になっている。
本稿では,既存のデバイアスアルゴリズムに直接適用可能なクラス固有のスケーリング戦略を提案する。
我々は、このトレードオフを軽減するために、インスタンスワイド適応スケーリング技術を開発し、堅牢性と平均的アキュラシーの両方の改善に繋がる。
- 参考スコア(独自算出の注目度): 47.41034887474166
- License:
- Abstract: Group distributionally robust optimization, which aims to improve robust accuracies -- worst-group and unbiased accuracies -- is a prominent algorithm used to mitigate spurious correlations and address dataset bias. Although existing approaches have reported improvements in robust accuracies, these gains often come at the cost of average accuracy due to inherent trade-offs. To control this trade-off flexibly and efficiently, we propose a simple class-specific scaling strategy, directly applicable to existing debiasing algorithms with no additional training. We further develop an instance-wise adaptive scaling technique to alleviate this trade-off, even leading to improvements in both robust and average accuracies. Our approach reveals that a na\"ive ERM baseline matches or even outperforms the recent debiasing methods by simply adopting the class-specific scaling technique. Additionally, we introduce a novel unified metric that quantifies the trade-off between the two accuracies as a scalar value, allowing for a comprehensive evaluation of existing algorithms. By tackling the inherent trade-off and offering a performance landscape, our approach provides valuable insights into robust techniques beyond just robust accuracy. We validate the effectiveness of our framework through experiments across datasets in computer vision and natural language processing domains.
- Abstract(参考訳): グループ分散ロバストな最適化は、ロバストなアキュラシー(最悪のグループと偏見のないアキュラシー)を改善することを目的としており、急激な相関とデータセットバイアスを緩和するために使用される顕著なアルゴリズムである。
既存のアプローチでは、堅牢なアキュラシーの改善が報告されているが、これらの改善は、固有のトレードオフによる平均的精度の犠牲になることが多い。
このトレードオフを柔軟かつ効率的に制御するために,既存のデバイアスアルゴリズムに直接適用可能な,クラス固有のスケーリング戦略を提案する。
さらに、このトレードオフを軽減するために、インスタンス単位で適応的なスケーリング手法を開発し、堅牢性と平均的アキュラシーの両方の改善につながります。
我々のアプローチは、na\"ive ERMベースラインが、クラス固有のスケーリング手法を採用するだけで、最近のデバイアス手法にマッチし、さらに性能が良くなることを明らかにする。
さらに,2つの精度間のトレードオフをスカラー値として定量化し,既存のアルゴリズムを包括的に評価する統一計量を導入する。
固有のトレードオフに対処し、パフォーマンスの展望を提供することによって、当社のアプローチは、堅牢な正確性を超えた、堅牢なテクニックに関する貴重な洞察を提供します。
我々は,コンピュータビジョンと自然言語処理領域におけるデータセットを用いた実験を通じて,フレームワークの有効性を検証する。
関連論文リスト
- Navigating Towards Fairness with Data Selection [27.731128352096555]
ラベルバイアスを効率的かつ柔軟に緩和するデータ選択法を提案する。
提案手法では,ゼロショット予測器をプロキシモデルとして利用し,クリーンなホールトアウトセットでのトレーニングをシミュレートする。
我々のモダリティ非依存手法は,実験評価において,ラベルバイアスの処理と多種多様なデータセット間の公正性向上に効果的かつ効果的であることが証明された。
論文 参考訳(メタデータ) (2024-12-15T06:11:05Z) - A constrained optimization approach to improve robustness of neural networks [1.2338729811609355]
クリーンなデータに対する精度を維持しつつ、敵攻撃に対する堅牢性を向上させるために、ファインチューン事前学習ニューラルネットワークに対する非線形プログラミングに基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-18T18:37:14Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Group Robust Classification Without Any Group Information [5.053622900542495]
この研究は、グループロバストネスに対する現在のバイアス非教師アプローチが、最適なパフォーマンスを達成するためにグループ情報に依存し続けていることを主張する。
バイアスラベルは依然として効果的なモデル選択に不可欠であり、現実のシナリオにおけるこれらの手法の実用性を制限する。
本稿では, 偏りのないモデルに対して, 完全にバイアスのない方法でトレーニングし, 妥当性を検証するための改訂手法を提案する。
論文 参考訳(メタデータ) (2023-10-28T01:29:18Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - An Operational Perspective to Fairness Interventions: Where and How to
Intervene [9.833760837977222]
フェアネス介入の評価と文脈化のための包括的枠組みを提案する。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
グループデータを使わずに予測パリティを実現することは困難である。
論文 参考訳(メタデータ) (2023-02-03T07:04:33Z) - Interpolation-based Contrastive Learning for Few-Label Semi-Supervised
Learning [43.51182049644767]
半教師付き学習(SSL)は,ラベルが限定された強力なモデルを構築する上で,有効な手法であることが長年証明されてきた。
摂動サンプルを元のものと類似した予測を強制する正規化に基づく手法が注目されている。
本稿では,学習ネットワークの埋め込みを誘導し,サンプル間の線形変化を誘導する新たな対照的な損失を提案する。
論文 参考訳(メタデータ) (2022-02-24T06:00:05Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。