論文の概要: Outlier-Aware Training for Improving Group Accuracy Disparities
- arxiv url: http://arxiv.org/abs/2210.15183v1
- Date: Thu, 27 Oct 2022 05:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 13:17:35.634788
- Title: Outlier-Aware Training for Improving Group Accuracy Disparities
- Title(参考訳): グループ精度格差改善のためのアウトリアアウェアトレーニング
- Authors: Li-Kuang Chen, Canasai Kruengkrai, Junichi Yamagishi
- Abstract要約: Just Train Twiceのような急激な相関に対処する手法では、トレーニングセットのサブセットを再重み付けして、最悪のグループ精度を最大化する。
本稿では、トレーニングセットの外れ値を検出して、再重み付け前に除去することで、これを緩和することを提案する。
実験の結果,本手法はJTTと比較して競争力や精度が向上し,JTTで再重み付けされたサブセットのアノテーションエラーを検出・除去できることがわかった。
- 参考スコア(独自算出の注目度): 44.56954574419636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Methods addressing spurious correlations such as Just Train Twice (JTT,
arXiv:2107.09044v2) involve reweighting a subset of the training set to
maximize the worst-group accuracy. However, the reweighted set of examples may
potentially contain unlearnable examples that hamper the model's learning. We
propose mitigating this by detecting outliers to the training set and removing
them before reweighting. Our experiments show that our method achieves
competitive or better accuracy compared with JTT and can detect and remove
annotation errors in the subset being reweighted in JTT.
- Abstract(参考訳): Just Train Twice (JTT, arXiv:2107.09044v2) のような急激な相関に対処する手法では、最悪のグループ精度を最大化するためにトレーニングセットのサブセットを再重み付けする。
しかし、再重み付けされた例には、モデルの学習を妨げる未学習の例が含まれる可能性がある。
我々は,トレーニングセットの外れ値を検出し,再重み付け前に取り除くことで,これを軽減することを提案する。
実験の結果,本手法はJTTと比較して精度が向上し,JTTで再重み付けされたサブセットのアノテーションエラーを検出・除去できることがわかった。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Debiased Sample Selection for Combating Noisy Labels [24.296451733127956]
サンプル選択におけるバイアス学習のためのnoIse-Tolerant Expert Model (ITEM)を提案する。
具体的には、トレーニングバイアスを軽減するために、複数の専門家と統合した堅牢なネットワークアーキテクチャを設計します。
2つのクラス識別型ミニバッチの混合によるトレーニングにより、モデルが不均衡なトレーニングセットの効果を緩和する。
論文 参考訳(メタデータ) (2024-01-24T10:37:28Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Bias Amplification Enhances Minority Group Performance [10.380812738348899]
本稿では,新しい2段階学習アルゴリズムであるBAMを提案する。
第1段階では、各トレーニングサンプルに対して学習可能な補助変数を導入することにより、バイアス増幅方式を用いてモデルを訓練する。
第2段階では、バイアス増幅モデルが誤分類したサンプルを重み付けし、その後、再重み付けされたデータセット上で同じモデルをトレーニングし続けます。
論文 参考訳(メタデータ) (2023-09-13T04:40:08Z) - Vulnerability-Aware Instance Reweighting For Adversarial Training [4.874780144224057]
対人訓練(AT)は、対人攻撃に対する深層学習分類器の堅牢性を大幅に向上させることが知られている。
ATはトレーニングセットの異なるクラスに不均一な影響を及ぼし、本質的に分類するのが難しいクラスに対応する例を不公平に傷つけます。
トレーニングセットにおける個々の例のロバストな損失に不等重みを割り当てる様々な再重み付けスキームが提案されている。
そこで本研究では,各自然事例の脆弱性と,敵攻撃時に発生する敵に対する情報損失について考察する。
論文 参考訳(メタデータ) (2023-07-14T05:31:32Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。