論文の概要: Efficient Shapley Values for Attributing Global Properties of Diffusion Models to Data Group
- arxiv url: http://arxiv.org/abs/2407.03153v1
- Date: Sun, 9 Jun 2024 17:42:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-07 13:14:55.066431
- Title: Efficient Shapley Values for Attributing Global Properties of Diffusion Models to Data Group
- Title(参考訳): 拡散モデルの大域的特性をデータグループに寄与する効率的な共有値
- Authors: Chris Lin, Mingyu Lu, Chanwoo Kim, Su-In Lee,
- Abstract要約: モデルプルーニングと微調整を利用してシェープリー値を効率的に推定する手法を開発した。
I) CIFARデータセットで訓練されたDDPMのグローバル画像品質、(II) CelebA-HQで訓練されたLCMの人口統計学的多様性、(iii) 印象派のアートワークで修正された安定拡散モデルLoRAの全体的な審美的品質、の3つのユースケースで本手法の有用性を実証的に実証した。
- 参考スコア(独自算出の注目度): 13.761241561734547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As diffusion models are deployed in real-world settings, data attribution is needed to ensure fair acknowledgment for contributors of high-quality training data and to identify sources of harmful content. Previous work focuses on identifying individual training samples important for the generation of a given image. However, instead of focusing on a given generated image, some use cases require understanding global properties of the distribution learned by a diffusion model (e.g., demographic diversity). Furthermore, training data for diffusion models are often contributed in groups rather than separately (e.g., multiple artworks from the same artist). Hence, here we tackle the problem of attributing global properties of diffusion models to groups of training data. Specifically, we develop a method to efficiently estimate Shapley values by leveraging model pruning and fine-tuning. We empirically demonstrate the utility of our method with three use cases: (i) global image quality for a DDPM trained on a CIFAR dataset, (ii) demographic diversity for an LDM trained on CelebA-HQ, and (iii) overall aesthetic quality for a Stable Diffusion model LoRA-finetuned on Post-Impressionist artworks.
- Abstract(参考訳): 拡散モデルが現実世界の環境で展開されるため、高品質なトレーニングデータのコントリビュータに対する公正な承認と有害なコンテンツソースの特定のために、データ属性が必要である。
以前の研究は、与えられた画像の生成に重要な個別のトレーニングサンプルを特定することに焦点を当てていた。
しかし、与えられた画像に焦点をあてる代わりに、拡散モデル(例えば、人口多様性)によって学習された分布のグローバルな性質を理解する必要があるユースケースもある。
さらに、拡散モデルのトレーニングデータは、独立したグループではなくグループ(例えば、同じアーティストの複数のアートワーク)に寄贈されることが多い。
そこで本研究では,拡散モデルのグローバルな特性をトレーニングデータ群にもたらす問題に取り組む。
具体的には,モデルプルーニングと微調整を利用して,シェープリー値の効率よく推定する手法を開発した。
私たちは3つのユースケースで、我々の方法の有用性を実証的に実証します。
(i)CIFARデータセットで訓練したDDPMのグローバル画質
(二)CelebA本社で訓練を受けたLCMの人口多様性
安定拡散モデルLoRAの全体的な審美的品質について検討した。
関連論文リスト
- Balancing Act: Distribution-Guided Debiasing in Diffusion Models [31.38505986239798]
拡散モデル(DM)は、前例のない画像生成能力を持つ強力な生成モデルとして登場した。
DMはトレーニングデータセットに存在するバイアスを反映します。
本稿では、追加データやモデル再学習に頼ることなく、DMをデバイアスする手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T09:53:17Z) - The Journey, Not the Destination: How Data Guides Diffusion Models [75.19694584942623]
大規模なデータセットでトレーニングされた拡散モデルは、顕著な品質と多様性のフォトリアリスティックなイメージを合成することができる。
i)拡散モデルの文脈でデータ属性の形式的概念を提供し、(ii)そのような属性を反実的に検証することを可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-11T08:39:43Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Extracting Training Data from Diffusion Models [77.11719063152027]
拡散モデルはトレーニングデータから個々の画像を記憶し,生成時に出力することを示す。
生成とフィルタのパイプラインを用いて、最先端のモデルから数千以上のトレーニング例を抽出する。
さまざまな設定で何百もの拡散モデルをトレーニングし、モデリングとデータ決定の違いがプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-30T18:53:09Z) - Diffusion Art or Digital Forgery? Investigating Data Replication in
Diffusion Models [53.03978584040557]
生成した画像とトレーニングサンプルを比較し、コンテンツが複製されたことを検知する画像検索フレームワークについて検討する。
フレームワークをオックスフォード花、Celeb-A、ImageNet、LAIONなど複数のデータセットでトレーニングされた拡散モデルに適用することにより、トレーニングセットのサイズがコンテンツ複製の速度にどのように影響するかを議論する。
論文 参考訳(メタデータ) (2022-12-07T18:58:02Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。