論文の概要: When Pretty Isn't Useful: Investigating Why Modern Text-to-Image Models Fail as Reliable Training Data Generators
- arxiv url: http://arxiv.org/abs/2602.19946v1
- Date: Mon, 23 Feb 2026 15:15:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.876599
- Title: When Pretty Isn't Useful: Investigating Why Modern Text-to-Image Models Fail as Reliable Training Data Generators
- Title(参考訳): 最新のテキスト・画像モデルが信頼性の高いデータ・ジェネレータとして機能しない理由を調査
- Authors: Krzysztof Adamkiewicz, Brian Moser, Stanislav Frolov, Tobias Christian Nauen, Federico Raue, Andreas Dengel,
- Abstract要約: この研究は、実際のトレーニングセットのスケーラブルな代替として、合成データの約束を再考する。
2022年から2025年の間に、最先端のT2Iモデルを用いて大規模な合成データセットを生成する。
視覚的忠実さと即効性の進歩にもかかわらず、実際のテストデータの分類精度は、トレーニングデータジェネレータとしての新しいT2Iモデルによって一貫して低下する。
- 参考スコア(独自算出の注目度): 8.125052877783043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent text-to-image (T2I) diffusion models produce visually stunning images and demonstrate excellent prompt following. But do they perform well as synthetic vision data generators? In this work, we revisit the promise of synthetic data as a scalable substitute for real training sets and uncover a surprising performance regression. We generate large-scale synthetic datasets using state-of-the-art T2I models released between 2022 and 2025, train standard classifiers solely on this synthetic data, and evaluate them on real test data. Despite observable advances in visual fidelity and prompt adherence, classification accuracy on real test data consistently declines with newer T2I models as training data generators. Our analysis reveals a hidden trend: These models collapse to a narrow, aesthetic-centric distribution that undermines diversity and label-image alignment. Overall, our findings challenge a growing assumption in vision research, namely that progress in generative realism implies progress in data realism. We thus highlight an urgent need to rethink the capabilities of modern T2I models as reliable training data generators.
- Abstract(参考訳): 最近のテキスト・ツー・イメージ(T2I)拡散モデルでは、視覚的に素晴らしい画像が生成され、優れた後続のプロンプトが示される。
しかし、それらは合成視覚データジェネレータとして機能するのか?
本研究では,実際のトレーニングセットのスケーラブルな代替手段としての合成データの約束を再考し,驚くべき性能の回帰を明らかにする。
我々は2022年から2025年の間にリリースされた最先端のT2Iモデルを用いて大規模な合成データセットを生成し、この合成データのみに基づいて標準分類器を訓練し、実際のテストデータで評価する。
視覚的忠実さと即効性の進歩にもかかわらず、実際のテストデータの分類精度は、トレーニングデータジェネレータとしての新しいT2Iモデルによって一貫して低下する。
これらのモデルは、多様性とラベルとイメージのアライメントを損なう、狭く美的中心の分布へと崩壊します。
全体として、我々の発見は、視覚研究における仮定の増大、すなわち、生成的リアリズムの進歩がデータリアリズムの進展を意味するという仮定に挑戦する。
そこで我々は、最新のT2Iモデルの能力を信頼性のあるトレーニングデータジェネレータとして再考する緊急の必要性を強調した。
関連論文リスト
- Self-Consuming Generative Models with Curated Data Provably Optimize Human Preferences [20.629333587044012]
本研究では,データキュレーションが生成モデルの反復的再学習に与える影響について検討する。
報奨モデルに従ってデータをキュレートすると、反復的再訓練手順の期待報酬が最大になることを示す。
論文 参考訳(メタデータ) (2024-06-12T21:28:28Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - On the Stability of Iterative Retraining of Generative Models on their own Data [56.153542044045224]
混合データセットに対する生成モデルの訓練が与える影響について検討する。
まず、初期生成モデルがデータ分布を十分に近似する条件下で反復学習の安定性を実証する。
我々は、正規化フローと最先端拡散モデルを繰り返し訓練することにより、合成画像と自然画像の両方に関する我々の理論を実証的に検証する。
論文 参考訳(メタデータ) (2023-09-30T16:41:04Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。