論文の概要: SurrogateSHAP: Training-Free Contributor Attribution for Text-to-Image (T2I) Models
- arxiv url: http://arxiv.org/abs/2601.22276v1
- Date: Thu, 29 Jan 2026 19:48:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.036787
- Title: SurrogateSHAP: Training-Free Contributor Attribution for Text-to-Image (T2I) Models
- Title(参考訳): SurrogateSHAP: テキスト・ツー・イメージ(T2I)モデルのトレーニングフリーコントリビュータ属性
- Authors: Mingyu Lu, Soham Gadgil, Chris Lin, Chanwoo Kim, Su-In Lee,
- Abstract要約: SurrogateSHAPは、事前訓練されたモデルからの推論を通じて、高価なリトレーニングゲームを近似する、トレーニング不要のフレームワークである。
I) CIFAR-20におけるDDPM-CFGの画質, (ii) 印象派のアートワークにおける安定拡散の美学, (iii) Fashion-ProductデータにおけるFLUX.1の製品多様性の3つの要因からSurrogateSHAPを評価した。
- 参考スコア(独自算出の注目度): 24.06687457570142
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Text-to-Image (T2I) diffusion models are increasingly used in real-world creative workflows, a principled framework for valuing contributors who provide a collection of data is essential for fair compensation and sustainable data marketplaces. While the Shapley value offers a theoretically grounded approach to attribution, it faces a dual computational bottleneck: (i) the prohibitive cost of exhaustive model retraining for each sampled subset of players (i.e., data contributors) and (ii) the combinatorial number of subsets needed to estimate marginal contributions due to contributor interactions. To this end, we propose SurrogateSHAP, a retraining-free framework that approximates the expensive retraining game through inference from a pretrained model. To further improve efficiency, we employ a gradient-boosted tree to approximate the utility function and derive Shapley values analytically from the tree-based model. We evaluate SurrogateSHAP across three diverse attribution tasks: (i) image quality for DDPM-CFG on CIFAR-20, (ii) aesthetics for Stable Diffusion on Post-Impressionist artworks, and (iii) product diversity for FLUX.1 on Fashion-Product data. Across settings, SurrogateSHAP outperforms prior methods while substantially reducing computational overhead, consistently identifying influential contributors across multiple utility metrics. Finally, we demonstrate that SurrogateSHAP effectively localizes data sources responsible for spurious correlations in clinical images, providing a scalable path toward auditing safety-critical generative models.
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)拡散モデルが現実の創造的ワークフローでますます使われるようになるにつれて、データのコレクションを提供するコントリビュータを評価するための原則的なフレームワークは、公正な補償と持続可能なデータ市場にとって不可欠である。
Shapleyの値は、帰属に対する理論的に基礎的なアプローチを提供するが、双対の計算ボトルネックに直面している。
一 参加者のサンプルサブセット(すなわちデータ提供者)ごとの排他的モデル再訓練の禁止費用
(2)貢献者相互作用による限界寄与を推定するために必要となる部分集合の組合せ数。
そこで本研究では,事前学習モデルからの推論により,高価なリトレーニングゲームに近似したリトレーニングフリーフレームワークであるSurrogateSHAPを提案する。
さらに効率を向上するため,我々は,有効関数を近似し,木に基づくモデルからShapley値を解析的に導出するために勾配木を用いる。
SurrogateSHAPは3つのタスクにまたがって評価する。
(i)CIFAR-20上のDDPM-CFGの画像品質
(二)印象派美術品の安定拡散の美学
3 Fashion-Productデータに基づくFLUX.1の製品多様性
設定全体では、SurrogateSHAPは以前の方法よりも優れており、計算オーバーヘッドを大幅に削減し、複数のユーティリティメトリクスで影響力のあるコントリビュータを一貫して識別する。
最後に、SurrogateSHAPは、臨床画像のスプリット相関の原因となるデータソースを効果的にローカライズし、安全クリティカルな生成モデルを監査するためのスケーラブルな経路を提供することを示した。
関連論文リスト
- FoundIR-v2: Optimizing Pre-Training Data Mixtures for Image Restoration Foundation Model [89.23522479092537]
本稿では,高容量拡散に基づく画像復元基盤モデルFoundIR-v2を提案する。
データ混合法則を活用することにより、バランスの取れたデータセットの構成が保証される。
本手法は最先端の手法に対して良好な性能を発揮する。
論文 参考訳(メタデータ) (2025-12-10T03:10:52Z) - Did Models Sufficient Learn? Attribution-Guided Training via Subset-Selected Counterfactual Augmentation [61.248535801314375]
Subset-Selected Counterfactual Augmentation (SS-CA)
我々は,モデル予測を選択的に変更可能な最小空間領域集合を識別するために,対実的LIMAを開発した。
実験により,SS-CAは分布内テストデータ(ID)の一般化を改善し,分布外ベンチマーク(OOD)において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-15T08:39:22Z) - DUET: Dual Model Co-Training for Entire Space CTR Prediction [34.35929309131385]
textbfDUET (textbfdual Model Co-Training for textbfdual Model Co-Training for textbfEntire Space CtextbfTR Prediction) は、厳密な計算予算下で表現的モデリングを実現するための、設定可能な事前のフレームワークである。
最先端のベースラインを一貫して上回り、複数のコアビジネスメトリクスにまたがる改善を実現します。
論文 参考訳(メタデータ) (2025-10-28T12:46:33Z) - A Tale of Two Experts: Cooperative Learning for Source-Free Unsupervised Domain Adaptation [59.88864205383671]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、ソースデータにアクセスすることなく、ターゲットドメインにソース学習モデルを適用するという現実的な課題に対処する。
既存のSFUDA手法は、ソースモデルの予測のみを利用するか、大きなマルチモーダルモデルを微調整する。
本稿では、補完的な洞察と対象データの潜在構造を利用するためのエキスパート協調学習(EXCL)を提案する。
論文 参考訳(メタデータ) (2025-09-26T11:39:50Z) - $α$-TCVAE: On the relationship between Disentanglement and Diversity [21.811889512977924]
本稿では,新しい全相関(TC)下界を用いて最適化された変分オートエンコーダである$alpha$-TCVAEを紹介する。
本稿では,不整合表現がより優れた生成能力と多様性をもたらすという考えを支持する定量的分析について述べる。
以上の結果から,$alpha$-TCVAEはベースラインよりも不整合表現を一貫して学習し,より多様な観測結果を生成することが示された。
論文 参考訳(メタデータ) (2024-11-01T13:50:06Z) - An Efficient Framework for Crediting Data Contributors of Diffusion Models [13.761241561734547]
本稿では,Shapley値推定のための推論を効率的に再学習し,再実行する手法を提案する。
CIFARデータセットで訓練されたDDPMの画像品質,CelebA-HQで訓練されたLCMの人口統計学的多様性,そして, (iii) 印象主義後のアートワークで修正された安定拡散モデルLoRAの審美的品質,の3つのユースケースで本手法の有用性を評価した。
論文 参考訳(メタデータ) (2024-06-09T17:42:09Z) - Benchmarking Zero-Shot Robustness of Multimodal Foundation Models: A Pilot Study [61.65123150513683]
CLIPのようなマルチモーダル基盤モデルは、最先端のゼロショット結果を生成する。
これらのモデルは、ImageNetでトレーニングされた教師付きモデルのパフォーマンスを一致させることで、ロバスト性ギャップを埋めることが報告されている。
CLIPは、ベンチマーク上の教師付きImageNetモデルと比較して、かなりの堅牢性低下をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-15T17:33:49Z) - Intriguing Properties of Data Attribution on Diffusion Models [33.77847454043439]
データ帰属は、望ましいアウトプットをトレーニングデータに戻そうとする。
データ属性は、高直感的または著作権のあるデータを適切に割り当てるためのモジュールになっている。
論文 参考訳(メタデータ) (2023-11-01T13:00:46Z) - Uncovering the Hidden Cost of Model Compression [43.62624133952414]
視覚プロンプティングは、コンピュータビジョンにおける伝達学習の重要な方法として登場した。
モデル圧縮は視覚的プロンプトベース転送の性能に有害である。
しかし、量子化によってモデルが圧縮されるとき、キャリブレーションに対する負の効果は存在しない。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。