論文の概要: FLORA: Efficient Synthetic Data Generation for Object Detection in Low-Data Regimes via finetuning Flux LoRA
- arxiv url: http://arxiv.org/abs/2508.21712v1
- Date: Fri, 29 Aug 2025 15:29:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.096082
- Title: FLORA: Efficient Synthetic Data Generation for Object Detection in Low-Data Regimes via finetuning Flux LoRA
- Title(参考訳): FLORA:Flux LoRAによる低データレジームにおけるオブジェクト検出のための効率的な合成データ生成
- Authors: Alvaro Patricio, Atabak Dehban, Rodrigo Ventura,
- Abstract要約: 軽量な合成データ生成パイプラインであるFlux LoRA Augmentation (FLORA)を提案する。
我々のアプローチでは、Low-Rank Adaptation (LoRA)を通してのみ微調整されたFlux 1.1 Dev拡散モデルを用いている。
我々は,7つの多様な物体検出データセットに対するアプローチを実証的に評価した。
- 参考スコア(独自算出の注目度): 1.5612040984769855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in diffusion-based generative models have demonstrated significant potential in augmenting scarce datasets for object detection tasks. Nevertheless, most recent models rely on resource-intensive full fine-tuning of large-scale diffusion models, requiring enterprise-grade GPUs (e.g., NVIDIA V100) and thousands of synthetic images. To address these limitations, we propose Flux LoRA Augmentation (FLORA), a lightweight synthetic data generation pipeline. Our approach uses the Flux 1.1 Dev diffusion model, fine-tuned exclusively through Low-Rank Adaptation (LoRA). This dramatically reduces computational requirements, enabling synthetic dataset generation with a consumer-grade GPU (e.g., NVIDIA RTX 4090). We empirically evaluate our approach on seven diverse object detection datasets. Our results demonstrate that training object detectors with just 500 synthetic images generated by our approach yields superior detection performance compared to models trained on 5000 synthetic images from the ODGEN baseline, achieving improvements of up to 21.3% in mAP@.50:.95. This work demonstrates that it is possible to surpass state-of-the-art performance with far greater efficiency, as FLORA achieves superior results using only 10% of the data and a fraction of the computational cost. This work demonstrates that a quality and efficiency-focused approach is more effective than brute-force generation, making advanced synthetic data creation more practical and accessible for real-world scenarios.
- Abstract(参考訳): 拡散に基づく生成モデルの最近の進歩は、オブジェクト検出タスクのための不足データセットを増大させる大きな可能性を示している。
しかしながら、最近のモデルでは、大規模な拡散モデルのリソース集約的なフル微調整に依存しており、エンタープライズグレードのGPU(例えばNVIDIA V100)と数千の合成画像を必要とする。
これらの制約に対処するため、軽量な合成データ生成パイプラインであるFlux LoRA Augmentation (FLORA)を提案する。
提案手法では,Low-Rank Adaptation (LoRA) を用いたFlux 1.1 Dev拡散モデルを用いる。
これにより計算要求が劇的に削減され、コンシューマグレードのGPU(NVIDIA RTX 4090など)で合成データセット生成が可能になる。
我々は,7つの多様な物体検出データセットに対するアプローチを実証的に評価した。
本手法により得られた500個の合成画像のみを用いた物体検出器の訓練は,ODGENベースラインから5000個の合成画像にトレーニングしたモデルと比較して優れた検出性能を示し,mAP@.50:.95で最大21.3%向上した。
この研究により、FLORAはデータの10%と計算コストのごく一部で優れた結果が得られるため、最先端の性能をはるかに高い効率で超えることが可能であることが示される。
この研究は、品質と効率を重視したアプローチがブルートフォース生成よりも効果的であることを示し、高度な合成データ生成を現実のシナリオでより実用的でアクセスしやすいものにしている。
関連論文リスト
- Stylized Structural Patterns for Improved Neural Network Pre-training [1.8641315013048299]
コンピュータビジョンにおけるディープラーニングモデルは、実際の画像の大規模なデータセットを必要とする。
最近の研究では、合成データが代替として提案されているが、訓練されたモデルはしばしば性能が劣っている。
そこで我々は,新しい種類の合成データを導入し,改良されたニューラルフラクタル定式化を提案する。
第二に,視覚的特徴を,ライセンスのない小さな実画像から合成データセットへ伝達する手法であるリバースススタイリングを提案する。
論文 参考訳(メタデータ) (2025-06-24T09:47:31Z) - LoFT: LoRA-fused Training Dataset Generation with Few-shot Guidance [96.6544564242316]
本稿では,Few-shot Guidanceを用いたLoRA-Fused Training-data Generationという新しいデータセット生成フレームワークを提案する。
提案手法は,個々の実画像にLoRA重みを微調整し,推定時に融合させ,実画像の特徴を組み合わせた合成画像を生成し,データの多様性と忠実度を向上させる。
実験の結果,LoFT生成データに対するトレーニングは,他の合成データセット法より一貫して優れており,データセットのサイズが大きくなるにつれて精度が著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-05-16T21:17:55Z) - Ultra-Resolution Adaptation with Ease [62.56434979517156]
我々は,EmphURAEと呼ばれる超高分解能適応のための重要なガイドラインのセットを提案する。
重み行列の小さな成分のチューニングは、合成データが利用できない場合に広く使用される低ランクアダプタよりも優れていることを示す。
URAEは、FLUX1.1[Pro] Ultraのような最先端のクローズドソースモデルに匹敵する2K世代の性能を達成している。
論文 参考訳(メタデータ) (2025-03-20T16:44:43Z) - Improving Object Detection by Modifying Synthetic Data with Explainable AI [3.0519884745675485]
本稿では,合成画像の設計効率を向上させるための新しい概念的アプローチを提案する。
XAI技術は、これらの画像を生成するために使用される3Dメッシュモデルを修正する、ループ中の人間プロセスを導く。
合成データは、トレーニング中に見えない方向の車両の検出を4.6%改善できることを示す。
論文 参考訳(メタデータ) (2024-12-02T13:24:43Z) - Generative AI-based Pipeline Architecture for Increasing Training Efficiency in Intelligent Weed Control Systems [0.0]
本研究は,知的雑草制御のための深層学習に基づく物体検出モデルを改善するために,合成画像を生成する新しいアプローチを提案する。
我々のGenAIベースの画像生成パイプラインは、ゼロショットドメイン適応のためのSegment Anything Model(SAM)と、テキストから画像への安定拡散モデルを統合する。
我々は、これらの合成データセットを軽量YOLOモデルを用いて評価し、mAP50とmAP50-95スコアを用いてデータ効率を測定した。
論文 参考訳(メタデータ) (2024-11-01T12:58:27Z) - Learning from Synthetic Data for Visual Grounding [55.21937116752679]
そこで本研究では,SynGroundが市販のビジョン・アンド・ランゲージモデルのローカライズ能力を向上できることを示す。
SynGroundで生成されたデータは、事前訓練されたALBEFモデルとBLIPモデルのポインティングゲーム精度をそれぞれ4.81%、絶対パーセンテージポイント17.11%向上させる。
論文 参考訳(メタデータ) (2024-03-20T17:59:43Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - Can Synthetic Data Improve Object Detection Results for Remote Sensing
Images? [15.466412729455874]
本稿では,リモートセンシング画像航空機検出の性能向上のために,広域分布のリアルな合成データの利用を提案する。
レンダリング中に、インスタンスのサイズや背景画像のクラスなど、パラメータをランダムに設定します。
合成画像をよりリアルにするために,CycleGANと実際の未ラベル画像を用いて,画素レベルで合成画像を洗練する。
論文 参考訳(メタデータ) (2020-06-09T02:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。