論文の概要: Fast Data Attribution for Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2511.10721v1
- Date: Thu, 13 Nov 2025 18:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.302363
- Title: Fast Data Attribution for Text-to-Image Models
- Title(参考訳): テキスト・画像モデルにおける高速データ帰属
- Authors: Sheng-Yu Wang, Aaron Hertzmann, Alexei A Efros, Richard Zhang, Jun-Yan Zhu,
- Abstract要約: 本稿では,スケーラブルで効率的なデータ属性に対する新しいアプローチを提案する。
私たちのキーとなるアイデアは、遅い学習ベースの属性メソッドを機能埋め込みスペースに抽出することです。
MSCOCOで訓練された中規模モデルとLAIONで訓練された大規模安定拡散モデルの両方について広範な結果を示す。
- 参考スコア(独自算出の注目度): 64.41254005231842
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Data attribution for text-to-image models aims to identify the training images that most significantly influenced a generated output. Existing attribution methods involve considerable computational resources for each query, making them impractical for real-world applications. We propose a novel approach for scalable and efficient data attribution. Our key idea is to distill a slow, unlearning-based attribution method to a feature embedding space for efficient retrieval of highly influential training images. During deployment, combined with efficient indexing and search methods, our method successfully finds highly influential images without running expensive attribution algorithms. We show extensive results on both medium-scale models trained on MSCOCO and large-scale Stable Diffusion models trained on LAION, demonstrating that our method can achieve better or competitive performance in a few seconds, faster than existing methods by 2,500x - 400,000x. Our work represents a meaningful step towards the large-scale application of data attribution methods on real-world models such as Stable Diffusion.
- Abstract(参考訳): テキスト・ツー・イメージ・モデルのデータの属性は、生成した出力に最も大きな影響を与えているトレーニング画像を特定することを目的としている。
既存の帰属法はクエリごとにかなりの計算資源を消費し、現実のアプリケーションでは実用的ではない。
本稿では,スケーラブルで効率的なデータ属性に対する新しいアプローチを提案する。
我々のキーとなる考え方は、学習の遅い帰属法を、高度に影響力のある訓練画像の効率的な検索のための特徴埋め込み空間に蒸留することである。
本手法は,効率的なインデックス作成と探索手法を組み合わせることで,高価な帰属アルゴリズムを使わずに,高い影響力のある画像の発見に成功した。
MSCOCOで訓練した中規模モデルとLAIONで訓練した大規模安定拡散モデルの両方に対して広範な結果を示し、本手法が既存の2500倍から400,000倍の高速化を達成できることを示した。
我々の研究は、安定拡散のような現実のモデルに大規模なデータ帰属法を適用するための重要な一歩である。
関連論文リスト
- Underlying Semantic Diffusion for Effective and Efficient In-Context Learning [113.4003355229632]
Underlying Semantic Diffusion (US-Diffusion)は、セマンティック学習、計算効率、文脈内学習能力を高める拡張拡散モデルである。
本稿では,フィードバック信号を利用したフィードバック支援学習(FAL)フレームワークを提案する。
また,高雑音レベルの時間ステップで高密度サンプリングを行うためのプラグイン・アンド・プレイの効率的なサンプリング戦略(ESS)を提案する。
論文 参考訳(メタデータ) (2025-03-06T03:06:22Z) - SAGI: Semantically Aligned and Uncertainty Guided AI Image Inpainting [11.216906046169683]
SAGI-DはAIが生成する塗り絵の最大かつ最も多様なデータセットである。
実験の結果,セマンティックアライメントは画像の品質と美学を著しく改善することがわかった。
SAGI-Dを使っていくつかの画像法医学的アプローチを訓練すると、ドメイン内の検出性能は平均37.4%向上する。
論文 参考訳(メタデータ) (2025-02-10T15:56:28Z) - Text-to-Image Diffusion Models are Great Sketch-Photo Matchmakers [120.49126407479717]
本稿では,ゼロショットスケッチに基づく画像検索(ZS-SBIR)のためのテキスト・画像拡散モデルについて検討する。
スケッチと写真の間のギャップをシームレスに埋めるテキストと画像の拡散モデルの能力。
論文 参考訳(メタデータ) (2024-03-12T00:02:03Z) - The Journey, Not the Destination: How Data Guides Diffusion Models [75.19694584942623]
大規模なデータセットでトレーニングされた拡散モデルは、顕著な品質と多様性のフォトリアリスティックなイメージを合成することができる。
i)拡散モデルの文脈でデータ属性の形式的概念を提供し、(ii)そのような属性を反実的に検証することを可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-11T08:39:43Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - Wuerstchen: An Efficient Architecture for Large-Scale Text-to-Image
Diffusion Models [6.821399706256863]
W"urstchen"は、競争性能と前例のない費用対効果を組み合わせたテキスト対画像合成の新しいアーキテクチャである。
我々の研究の重要な貢献は、詳細だが非常にコンパクトなセマンティックイメージ表現を学習する潜伏拡散技術を開発することである。
論文 参考訳(メタデータ) (2023-06-01T13:00:53Z) - MEAL: Manifold Embedding-based Active Learning [0.0]
アクティブな学習は、ラベル付けのための最も有望なサンプルを提案することで、少量のデータから学ぶのに役立つ。
本稿では,各獲得ステップにおいて,有望な画像領域を提案するアクティブラーニングのためのプールベースの新しい手法を提案する。
また,Cityscapesでは,Cityscapesでは,CamVidの性能向上が認められなかった。
論文 参考訳(メタデータ) (2021-06-22T15:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。