論文の概要: Learning to Weight Parameters for Data Attribution
- arxiv url: http://arxiv.org/abs/2506.05647v1
- Date: Fri, 06 Jun 2025 00:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.271542
- Title: Learning to Weight Parameters for Data Attribution
- Title(参考訳): データ帰属のための重み付けパラメータの学習
- Authors: Shuangqi Li, Hieu Le, Jingyi Xu, Mathieu Salzmann,
- Abstract要約: 生成モデルにおけるデータ帰属について検討し、どのトレーニング例が与えられた出力に最も影響するかを特定することを目的とした。
本稿では,ラベル付きデータを必要とせず,属性に適したパラメータ重み付けを学習することで,これをモデル化する手法を提案する。
- 参考スコア(独自算出の注目度): 63.753710512888965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study data attribution in generative models, aiming to identify which training examples most influence a given output. Existing methods achieve this by tracing gradients back to training data. However, they typically treat all network parameters uniformly, ignoring the fact that different layers encode different types of information and may thus draw information differently from the training set. We propose a method that models this by learning parameter importance weights tailored for attribution, without requiring labeled data. This allows the attribution process to adapt to the structure of the model, capturing which training examples contribute to specific semantic aspects of an output, such as subject, style, or background. Our method improves attribution accuracy across diffusion models and enables fine-grained insights into how outputs borrow from training data.
- Abstract(参考訳): 生成モデルにおけるデータ帰属について検討し、どのトレーニング例が与えられた出力に最も影響するかを特定することを目的とした。
既存の方法は、トレーニングデータに勾配を遡ってこれを達成している。
しかし、通常は全てのネットワークパラメータを均一に扱い、異なるレイヤが異なるタイプの情報をエンコードしているという事実を無視して、トレーニングセットと異なる情報を引き出す。
本稿では,ラベル付きデータを必要とせず,属性に適したパラメータ重み付けを学習することで,これをモデル化する手法を提案する。
これにより、帰属プロセスがモデルの構造に適応し、トレーニング例が対象、スタイル、背景といった出力の特定の意味的な側面に寄与するかどうかをキャプチャする。
本手法は,拡散モデル間の帰属精度を向上し,学習データからのアウトプットの借り方に関する詳細な洞察を可能にする。
関連論文リスト
- Capturing the Temporal Dependence of Training Data Influence [100.91355498124527]
我々は、訓練中にデータポイントを除去する影響を定量化する、軌跡特異的な離脱の影響の概念を定式化する。
軌道固有LOOの効率的な近似を可能にする新しい手法であるデータ値埋め込みを提案する。
データバリューの埋め込みは、トレーニングデータの順序付けをキャプチャするので、モデルトレーニングのダイナミクスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-12T18:28:55Z) - How Does Data Diversity Shape the Weight Landscape of Neural Networks? [2.89287673224661]
本稿では, ニューラルネットワークのパラメータ空間に対する降雨量, 重量減衰量, 騒音増大の影響について検討する。
我々は、多様なデータが、ドロップアウトと同様の方法で重量景観に影響を与えることを観察する。
合成データにより、実際の入力データにより多くの多様性がもたらされ、アウト・オブ・ディストリビューションテストインスタンスの性能が向上する、と結論付けている。
論文 参考訳(メタデータ) (2024-10-18T16:57:05Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
これらの課題に対処するための影響関数フレームワークを開発する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - The Journey, Not the Destination: How Data Guides Diffusion Models [75.19694584942623]
大規模なデータセットでトレーニングされた拡散モデルは、顕著な品質と多様性のフォトリアリスティックなイメージを合成することができる。
i)拡散モデルの文脈でデータ属性の形式的概念を提供し、(ii)そのような属性を反実的に検証することを可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-11T08:39:43Z) - Training Data Attribution for Diffusion Models [1.1733780065300188]
そこで本研究では,アンサンブルを用いて学習データが拡散モデルの出力にどのように影響するかを明らかにする新しい手法を提案する。
我々のアプローチでは、エンコードされたアンサンブル内の個々のモデルは、影響のあるトレーニング例の識別を可能にするために、訓練データ全体の分割を慎重に設計した上で訓練される。
得られたモデルアンサンブルは、トレーニングデータの影響の効率的なアブレーションを可能にし、トレーニングデータがモデル出力に与える影響を評価する。
論文 参考訳(メタデータ) (2023-06-03T18:36:12Z) - TRAK: Attributing Model Behavior at Scale [79.56020040993947]
本稿では,大規模な微分モデルに対して有効かつ計算的に抽出可能なデータ属性法であるTRAK(Tracing with Randomly-trained After Kernel)を提案する。
論文 参考訳(メタデータ) (2023-03-24T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。