論文の概要: When Generative Augmentation Hurts: A Benchmark Study of GAN and Diffusion Models for Bias Correction in AI Classification Systems
- arxiv url: http://arxiv.org/abs/2603.16134v1
- Date: Tue, 17 Mar 2026 05:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.112482
- Title: When Generative Augmentation Hurts: A Benchmark Study of GAN and Diffusion Models for Bias Correction in AI Classification Systems
- Title(参考訳): 生成的拡張Hrts:AI分類システムにおけるバイアス補正のためのGANと拡散モデルのベンチマーク研究
- Authors: Shesh Narayan Gupta, Nik Bear Brown,
- Abstract要約: 生成モデルは、AIトレーニングパイプラインのクラス不均衡を補うために広く使用されている。
FastGAN拡張は、非常に低いトレーニングセットサイズで性能が劣るだけでなく、バイアスを積極的に増加させる。
低ランク適応による安定拡散は全体として最良の結果を得た。
- 参考スコア(独自算出の注目度): 0.6875312133832079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models are widely used to compensate for class imbalance in AI training pipelines, yet their failure modes under low-data conditions are poorly understood. This paper reports a controlled benchmark comparing three augmentation strategies applied to a fine-grained animal classification task: traditional transforms, FastGAN, and Stable Diffusion 1.5 fine-tuned with Low-Rank Adaptation (LoRA). Using the Oxford-IIIT Pet Dataset with eight artificially underrepresented breeds, we find that FastGAN augmentation does not merely underperform at very low training set sizes but actively increases classifier bias, with a statistically significant large effect across three random seeds (bias gap increase: +20.7%, Cohen's d = +5.03, p = 0.013). The effect size here is large enough to give confidence in the direction of the finding despite the small number of seeds. Feature embedding analysis using t-distributed Stochastic Neighbor Embedding reveals that FastGAN images for severe-minority breeds form tight isolated clusters outside the real image distribution, a pattern consistent with mode collapse. Stable Diffusion with Low-Rank Adaptation produced the best results overall, achieving the highest macro F1 (0.9125 plus or minus 0.0047) and a 13.1% reduction in the bias gap relative to the unaugmented baseline. The data suggest a sample-size boundary somewhere between 20 and 50 training images per class below which GAN augmentation becomes harmful in this setting, though further work across additional domains is needed to establish where that boundary sits more precisely. All experiments run on a consumer-grade GPU with 6 to 8 GB of memory, with no cloud compute required.
- Abstract(参考訳): 生成モデルは、AIトレーニングパイプラインのクラス不均衡を補うために広く使用されているが、低データ条件下での障害モードは理解されていない。
本稿では, 従来型変換, 高速GAN, 安定拡散1.5, ローランド適応(LoRA) の3つの微粒化作業に適用される拡張戦略を比較するための制御ベンチマークを報告する。
人工的に表現されていない8種のOxford-IIIT Pet Datasetを用いて、FastGANの増強は、非常に低いトレーニングセットサイズで過小評価されるだけでなく、3つのランダムシード間で統計的に大きな大きな効果(バイアスギャップの増加:+20.7%、コーエンのd = +5.03, p = 0.013)を持つ分類器バイアスを積極的に増加させる。
この効果の大きさは、種子の数が少ないにもかかわらず、発見の方向性に自信を与えるのに十分である。
t-distributed Stochastic Neighbor Embedding を用いて特徴埋め込み解析を行った結果,FastGAN 画像は実像分布の外側に密に孤立したクラスターを形成し,モード崩壊と整合したパターンを形成することがわかった。
低ランク適応による安定拡散は、最大マクロF1(0.9125プラスまたはマイナス0.0047)を達成し、未拡張のベースラインに対するバイアスギャップを13.1%削減した。
このデータから、GAN増強が有害となるクラス毎20から50のトレーニングイメージのサンプルサイズ境界が示唆されているが、その境界がより正確に位置する領域をまたいださらなる作業が必要である。
すべての実験は6から8GBのメモリを持つコンシューマグレードのGPU上で実行され、クラウド計算は不要である。
関連論文リスト
- A Heterogeneous Ensemble for Multi-Center COVID-19 Classification from Chest CT Scans [0.39998518782208775]
3つの推論パラダイムにまたがる9つのモデルの異種アンサンブルを示す。
アンサンブルは4つの病院センターで平均0.9280のマクロF1を達成し、最高のシングルモデルを上回っている。
論文 参考訳(メタデータ) (2026-03-15T21:34:59Z) - GRASP: Guided Residual Adapters with Sample-wise Partitioning [10.504309161945065]
GRASP: サンプル分割によるガイド型残留アダプタを提案する。
長尾MIMIC-CXR-LTデータセットでは、GRASPは特に稀なクラスにおいて優れたFIDと多様性のメトリクスを得る。
論文 参考訳(メタデータ) (2025-12-01T13:43:17Z) - DiffusionNFT: Online Diffusion Reinforcement with Forward Process [99.94852379720153]
Diffusion Negative-aware FineTuning (DiffusionNFT) は、フローマッチングを通じて前方プロセス上で直接拡散モデルを最適化する新しいオンラインRLパラダイムである。
DiffusionNFTは、CFGフリーのFlowGRPOよりも25倍効率が高い。
論文 参考訳(メタデータ) (2025-09-19T16:09:33Z) - Robust Representation Consistency Model via Contrastive Denoising [83.47584074390842]
ランダムな平滑化は、敵の摂動に対する堅牢性を証明する理論的保証を提供する。
拡散モデルは、ノイズ摂動サンプルを浄化するためにランダムな平滑化に成功している。
我々は,画素空間における拡散軌跡に沿った生成的モデリングタスクを,潜在空間における識別的タスクとして再構成する。
論文 参考訳(メタデータ) (2025-01-22T18:52:06Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Adaptive DropBlock Enhanced Generative Adversarial Networks for
Hyperspectral Image Classification [36.679303770326264]
本稿では,高スペクトル画像(HSI)分類のためのAdaptive DropBlock-enhanced Generative Adversarial Networks (ADGAN)を提案する。
GANの差別者は、常に矛盾し、偽のラベルをマイノリティ階級のサンプルに関連付けようとするため、分類性能を損なう。
3つのHSIデータセットによる実験結果から,ADGANは最先端のGAN法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-01-22T01:43:59Z) - Generalized Focal Loss: Learning Qualified and Distributed Bounding
Boxes for Dense Object Detection [85.53263670166304]
一段検出器は基本的に、物体検出を密度の高い分類と位置化として定式化する。
1段検出器の最近の傾向は、局所化の質を推定するために個別の予測分岐を導入することである。
本稿では, 上記の3つの基本要素, 品質推定, 分類, ローカライゼーションについて述べる。
論文 参考訳(メタデータ) (2020-06-08T07:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。