論文の概要: Sebra: Debiasing Through Self-Guided Bias Ranking
- arxiv url: http://arxiv.org/abs/2501.18277v1
- Date: Thu, 30 Jan 2025 11:31:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:14:33.755616
- Title: Sebra: Debiasing Through Self-Guided Bias Ranking
- Title(参考訳): Sebra:自己ガイドによるバイアスランク付けによるデバイアス
- Authors: Adarsh Kappiyath, Abhra Chaudhuri, Ajay Jaiswal, Ziquan Liu, Yunpeng Li, Xiatian Zhu, Lu Yin,
- Abstract要約: 微粒なスプリシティ推定による試料のランク付けは,近年,バイアス緩和に大きく寄与することが示されている。
新たなulSelf-Guided ulBias ulRanking(emphSebra)に基づく脱バイアスフレームワークを提案する。
Sebraは、各クラス内のスプリシティによって、データポイントの自動ランキングを通じてバイアスを緩和する。
- 参考スコア(独自算出の注目度): 54.09529903433859
- License:
- Abstract: Ranking samples by fine-grained estimates of spuriosity (the degree to which spurious cues are present) has recently been shown to significantly benefit bias mitigation, over the traditional binary biased-\textit{vs}-unbiased partitioning of train sets. However, this spuriosity ranking comes with the requirement of human supervision. In this paper, we propose a debiasing framework based on our novel \ul{Se}lf-Guided \ul{B}ias \ul{Ra}nking (\emph{Sebra}), that mitigates biases (spurious correlations) via an automatic ranking of data points by spuriosity within their respective classes. Sebra leverages a key local symmetry in Empirical Risk Minimization (ERM) training -- the ease of learning a sample via ERM inversely correlates with its spuriousity; the fewer spurious correlations a sample exhibits, the harder it is to learn, and vice versa. However, globally across iterations, ERM tends to deviate from this symmetry. Sebra dynamically steers ERM to correct this deviation, facilitating the sequential learning of attributes in increasing order of difficulty, \ie, decreasing order of spuriosity. As a result, the sequence in which Sebra learns samples naturally provides spuriousity rankings. We use the resulting fine-grained bias characterization in a contrastive learning framework to mitigate biases from multiple sources. Extensive experiments show that Sebra consistently outperforms previous state-of-the-art unsupervised debiasing techniques across multiple standard benchmarks, including UrbanCars, BAR, CelebA, and ImageNet-1K. Code, pre-trained models, and training logs are available at https://kadarsh22.github.io/sebra_iclr25/.
- Abstract(参考訳): 最近、スプリシティー(スプリシティーが存在している程度)の詳細な推定による標本のランク付けは、伝統的な二分法バイアス-\textit{vs}-非バイアス分割よりも、バイアス緩和に大きく寄与することが示されている。
しかし、この刺激性ランキングは人間の監督が要求される。
本稿では,各クラスにおけるスプリシティーによるデータポイントの自動ランキングによるバイアス(スパージャ相関)を緩和する,我々の小説 \ul{Se}lf-Guided \ul{B}ias \ul{Ra}nking (\emph{Sebra}) に基づくデバイアス化フレームワークを提案する。
Sebraは経験的リスク最小化(ERM)トレーニングにおいて重要な局所対称性を活用する -- ERMによるサンプルの学習の容易さは、その刺激性と逆相関する。
しかし、全世界の反復において、ERMはこの対称性から逸脱する傾向にある。
セブラはこのずれを修正するためにERMを動的に操り、属性のシーケンシャルな学習を促進する。
その結果、Sebraがサンプルを学習するシーケンスは、自然に素性ランキングを提供する。
複数の情報源からのバイアスを軽減するために、対照的な学習フレームワークにおいて、結果として生じるきめ細かいバイアス特性を用いる。
大規模な実験により、Sebraは、UrbanCars、BAR、CelebA、ImageNet-1Kなど、複数の標準ベンチマークで、最先端の教師なしデバイアステクニックを一貫して上回っている。
コード、事前トレーニングされたモデル、トレーニングログはhttps://kadarsh22.github.io/sebra_iclr25/.comで入手できる。
関連論文リスト
- Neural Networks Learn Statistics of Increasing Complexity [2.1004767452202637]
分散単純バイアス(DSB)は、ニューラルネットワークがまずデータ分散の低次モーメントを学習する、という仮説である。
ネットワークは、トレーニングの初期段階のトレーニングセットと低次の統計値が一致した最大エントロピー分布で自動的によく学習され、その後にその能力を失うことを示す。
我々は, あるクラスの低次統計データを外科的に編集し, 早期学習ネットワークが, 対象クラスから抽出したもののように, 編集標本を処理していることを示すために, 最適な輸送手法を用いた。
論文 参考訳(メタデータ) (2024-02-06T20:03:35Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Uncertainty Voting Ensemble for Imbalanced Deep Regression [20.176217123752465]
本稿では,不均衡なデータから学習するUVOTEを紹介する。
従来の回帰損失を負の対数類似度に置き換え、サンプルワイドのアレタリックな不確実性も予測する。
UVOTEは先行技術より一貫して優れており、同時に精度のよい不確実性評価が得られている。
論文 参考訳(メタデータ) (2023-05-24T14:12:21Z) - SelecMix: Debiased Learning by Contradicting-pair Sampling [39.613595678105845]
ERMでトレーニングされたニューラルネットワークは、トレーニングデータがバイアスを受けたときに意図しない決定ルールを学ぶ。
トレーニング例の凸結合を生成するために,Mixupをベースとした代替案を提案する。
SelecMixと呼ばれるこの手法は、(i)同一のラベルを示すが、(ii)異なるラベルを示すか、または(ii)類似のバイアスを持つ特徴を示すものとして定義される、矛盾する例のペアにミックスアップを適用する。
論文 参考訳(メタデータ) (2022-11-04T07:15:36Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。