論文の概要: Match & Choose: Model Selection Framework for Fine-tuning Text-to-Image Diffusion Models
- arxiv url: http://arxiv.org/abs/2508.10993v1
- Date: Thu, 14 Aug 2025 18:00:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.634038
- Title: Match & Choose: Model Selection Framework for Fine-tuning Text-to-Image Diffusion Models
- Title(参考訳): Match & Choose: 微調整テキスト-画像拡散モデルのためのモデル選択フレームワーク
- Authors: Basile Lewandowski, Robert Birke, Lydia Y. Chen,
- Abstract要約: Text-to-image (T2I)モデルは大きなコーパスで事前訓練され、HuggingFaceのようなモデルプラットフォームでオープンに共有されることが多い。
ユーザーは、トレーニング済みのT2Iモデルを採用し、ターゲットデータセットでそれらを微調整することで、メディアコンテンツを生成するなど、AIアプリケーションを構築することができる。
本稿では,モデルプラットフォームから事前学習したT2Iモデルを,対象データセット上で完全に微調整することなく効率的に選択できる,最初のモデル選択フレームワークであるM&Cを提案する。
- 参考スコア(独自算出の注目度): 8.509633852396062
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Text-to-image (T2I) models based on diffusion and transformer architectures advance rapidly. They are often pretrained on large corpora, and openly shared on a model platform, such as HuggingFace. Users can then build up AI applications, e.g., generating media contents, by adopting pretrained T2I models and fine-tuning them on the target dataset. While public pretrained T2I models facilitate the democratization of the models, users face a new challenge: which model can be best fine-tuned based on the target data domain? Model selection is well addressed in classification tasks, but little is known in (pretrained) T2I models and their performance indication on the target domain. In this paper, we propose the first model selection framework, M&C, which enables users to efficiently choose a pretrained T2I model from a model platform without exhaustively fine-tuning them all on the target dataset. The core of M&C is a matching graph, which consists of: (i) nodes of available models and profiled datasets, and (ii) edges of model-data and data-data pairs capturing the fine-tuning performance and data similarity, respectively. We then build a model that, based on the inputs of model/data feature, and, critically, the graph embedding feature, extracted from the matching graph, predicts the model achieving the best quality after fine-tuning for the target domain. We evaluate M&C on choosing across ten T2I models for 32 datasets against three baselines. Our results show that M&C successfully predicts the best model for fine-tuning in 61.3% of the cases and a closely performing model for the rest.
- Abstract(参考訳): 拡散とトランスフォーマーアーキテクチャに基づくテキスト・ツー・イメージ(T2I)モデルは急速に進歩する。
それらは大きなコーパスで事前訓練され、HuggingFaceのようなモデルプラットフォームでオープンに共有されることが多い。
ユーザーは、トレーニング済みのT2Iモデルを採用し、ターゲットデータセットでそれらを微調整することで、AIアプリケーション、例えばメディアコンテンツを生成することができる。
パブリック事前トレーニングされたT2Iモデルはモデルの民主化を促進するが、ユーザーは新しい課題に直面している。
モデル選択は分類タスクではよく扱われるが、(事前訓練された)T2Iモデルとターゲットドメインでのそれらのパフォーマンス表示ではほとんど知られていない。
本稿では,モデルプラットフォームから事前学習したT2Iモデルを,対象データセット上で完全に微調整することなく効率的に選択できる,最初のモデル選択フレームワークであるM&Cを提案する。
M&C の中核は、以下のグラフからなるマッチンググラフである。
(i)利用可能なモデルとプロファイルデータセットのノード、
モデルデータとデータデータペアのエッジは,それぞれ微調整性能とデータ類似度を計測する。
次に、モデル/データ特徴の入力に基づいてモデルを構築し、重要なことに、マッチンググラフから抽出されたグラフ埋め込み機能は、対象領域の微調整後の最高の品質を達成するモデルを予測する。
3つのベースラインに対して、32データセットに対して10のT2Iモデルを選択した上で、M&Cを評価する。
以上の結果から, M&Cは61.3%の症例で最高の微調整モデルの予測に成功し, 残りは密に動作するモデルであることが示唆された。
関連論文リスト
- Consensus-Driven Active Model Selection [29.150990754584978]
本稿では,候補モデルからの予測を用いたアクティブモデル選択手法を提案し,テストデータポイントのラベル付けを優先する。
提案手法は,カテゴリとデータポイントの関係をモデル化し,コンセンサス駆動のアクティブモデル選択を行う。
モデル選択シナリオをキャプチャする26のベンチマークタスクの集合をキュレートすることで、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2025-07-31T17:56:28Z) - Holmes: Towards Effective and Harmless Model Ownership Verification to Personalized Large Vision Models via Decoupling Common Features [54.63343151319368]
本稿では、類似の共通特徴を分離し、パーソナライズされたモデルに対する無害モデルオーナシップ検証手法を提案する。
最初の段階では、データセット固有の機能を中断しながら、犠牲者モデルの共通の特徴を保持するシャドウモデルを作成します。
その後、メタ分類器が訓練され、被害者のデータセット固有の特徴を含む不審なモデルを決定することで、盗まれたモデルを特定する。
論文 参考訳(メタデータ) (2025-06-24T15:40:11Z) - Approximating Language Model Training Data from Weights [70.08614275061689]
モデル重みからデータ近似の問題を定式化し、いくつかのベースラインとメトリクスを提案する。
そこで我々は,大規模公開テキストコーパスから最高のマッチングデータを選択する勾配に基づく手法を開発した。
真のトレーニングデータがない場合でも、我々の方法では、公開Webドキュメントの小さなサブセットを見つけることができる。
論文 参考訳(メタデータ) (2025-06-18T15:26:43Z) - Anyprefer: An Agentic Framework for Preference Data Synthesis [62.3856754548222]
ターゲットモデルを調整するための高品質な嗜好データを合成するフレームワークであるAnypreferを提案する。
審査員モデルの応答を正確に評価するために、外部ツールが導入される。
合成されたデータは、58Kの高品質な選好ペアからなる新しい選好データセットであるAnyprefer-V1にコンパイルされる。
論文 参考訳(メタデータ) (2025-04-27T15:21:59Z) - Model Selection with Model Zoo via Graph Learning [45.30615308692713]
本稿では,グラフ学習問題としてモデル選択を再構成する新しいフレームワークであるTransferGraphを紹介する。
我々は,TransferGraphが本質的なモデル-データセット関係を捕捉し,予測性能と実際の微調整結果との相関性を最大32%向上させる効果を,最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-04-05T09:50:00Z) - Transfer Learning with Point Transformers [3.678615604632945]
Point Transformerは、Point Cloudデータの分類、セグメンテーション、検出のための最先端モデルである。
モデルNet10データセットに基づくこれらの注目ネットワークの分類性能について検討し、3次元MNISTデータセットを微調整後に分類するためにトレーニングされたモデルを用いた。
論文 参考訳(メタデータ) (2024-04-01T01:23:58Z) - A Two-Phase Recall-and-Select Framework for Fast Model Selection [13.385915962994806]
本稿では,2相モデル選択フレームワークを提案する。
これは、ベンチマークデータセット上でモデルのトレーニングパフォーマンスを活用することにより、堅牢なモデルを選択する効率を高めることを目的としている。
提案手法は,従来のベースライン法に比べて約3倍の速度でハイパフォーマンスモデルの選択を容易にすることが実証された。
論文 参考訳(メタデータ) (2024-03-28T14:44:44Z) - Do the Frankenstein, or how to achieve better out-of-distribution
performance with manifold mixing model soup [1.0878040851637998]
画像分類のためのCLIPモデルを微調整すると, 融合モデルにより分配性能が大幅に向上することを示す。
また、ファインタニングが行われた元のデータセットに対して、より正確な精度を提供する。
論文 参考訳(メタデータ) (2023-08-28T06:13:32Z) - Knowledge is a Region in Weight Space for Fine-tuned Language Models [48.589822853418404]
異なるモデルの重み空間と下層の損失景観が相互に相互に相互に相互に相互に相互に相互に関連しているかを検討する。
同じデータセットで微調整された言語モデルが重み空間で厳密なクラスタを形成し、同じタスクから異なるデータセットで微調整されたモデルがより緩いクラスタを形成することを示す。
論文 参考訳(メタデータ) (2023-02-09T18:59:18Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [47.432215933099016]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - A linearized framework and a new benchmark for model selection for
fine-tuning [112.20527122513668]
異なるドメインで事前訓練されたモデルの集合からの微調整は、低データ体制におけるテストの精度を向上させる技術として現れている。
モデル選択のための2つの新しいベースライン - Label-Gradient と Label-Feature correlation を導入する。
我々のベンチマークでは、微調整されたイメージネットモデルと比較して、モデル動物園での精度向上が強調されている。
論文 参考訳(メタデータ) (2021-01-29T21:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。