論文の概要: Beyond Frequency: Scoring-Driven Debiasing for Object Detection via Blueprint-Prompted Image Synthesis
- arxiv url: http://arxiv.org/abs/2510.18229v1
- Date: Tue, 21 Oct 2025 02:19:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.822863
- Title: Beyond Frequency: Scoring-Driven Debiasing for Object Detection via Blueprint-Prompted Image Synthesis
- Title(参考訳): 周波数を超えて:ブループリントプロンプト画像合成による物体検出のためのスコーリング駆動型デバイアス
- Authors: Xinhao Cai, Liulei Li, Gensheng Pei, Tao Chen, Jinshan Pan, Yazhou Yao, Wenguan Wang,
- Abstract要約: オブジェクト検出のための世代ベースデバイアスフレームワークを提案する。
提案手法は,未表現オブジェクト群の性能ギャップを著しく狭める。
- 参考スコア(独自算出の注目度): 97.37770785712475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a generation-based debiasing framework for object detection. Prior debiasing methods are often limited by the representation diversity of samples, while naive generative augmentation often preserves the biases it aims to solve. Moreover, our analysis reveals that simply generating more data for rare classes is suboptimal due to two core issues: i) instance frequency is an incomplete proxy for the true data needs of a model, and ii) current layout-to-image synthesis lacks the fidelity and control to generate high-quality, complex scenes. To overcome this, we introduce the representation score (RS) to diagnose representational gaps beyond mere frequency, guiding the creation of new, unbiased layouts. To ensure high-quality synthesis, we replace ambiguous text prompts with a precise visual blueprint and employ a generative alignment strategy, which fosters communication between the detector and generator. Our method significantly narrows the performance gap for underrepresented object groups, \eg, improving large/rare instances by 4.4/3.6 mAP over the baseline, and surpassing prior L2I synthesis models by 15.9 mAP for layout accuracy in generated images.
- Abstract(参考訳): 本稿では,オブジェクト検出のためのジェネレーションベースのデバイアス処理フレームワークを提案する。
従来のデバイアス法はサンプルの表現多様性によって制限されることが多いが、直感的な生成増強はしばしば、その解決を目指すバイアスを保っている。
さらに、我々の分析では、希少なクラスにより多くのデータを生成することが2つの主要な問題により、最適以下であることが判明した。
i) インスタンス頻度は、モデルの真のデータ要求に対する不完全なプロキシであり、
二 現在のレイアウト・ツー・イメージ合成は、高品質で複雑なシーンを生成するための忠実さと制御を欠いている。
これを解決するために、表現スコア(RS)を導入し、単に周波数を超える表現ギャップを診断し、新しい非バイアスレイアウトの作成を導く。
高品質な合成を実現するため、曖昧なテキストプロンプトを正確な視覚的青写真に置き換え、生成的アライメント戦略を採用し、検出器とジェネレータ間の通信を促進する。
提案手法は, 未表現のオブジェクト群, \eg, 大規模/希少なインスタンスをベースライン上で4.4/3.6mAP改善し, 生成画像のレイアウト精度を15.9mAP向上させるために, 以前のL2I合成モデルを15.9mAP超えた性能ギャップを著しく縮小する。
関連論文リスト
- Dual Data Alignment Makes AI-Generated Image Detector Easier Generalizable [57.48190915067007]
検出器はしばしばバイアス付きデータセットに基づいて訓練され、実際の/合成ラベルと突発的に相関する非因果属性に過度に適合する可能性がある。
1つの一般的な解決策は、生成的再構成を通じてデータセットアライメントを実行し、実画像と合成画像のセマンティック内容とを一致させることである。
我々は,画素レベルのアライメントだけでは不十分であることを示す。再構成された画像は依然として周波数レベルの不整合に悩まされており,スプリアス相関が持続する可能性がある。
論文 参考訳(メタデータ) (2025-05-20T13:42:38Z) - Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。