論文の概要: PureCC: Pure Learning for Text-to-Image Concept Customization
- arxiv url: http://arxiv.org/abs/2603.07561v1
- Date: Sun, 08 Mar 2026 09:50:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.809899
- Title: PureCC: Pure Learning for Text-to-Image Concept Customization
- Title(参考訳): PureCC: テキストから画像への概念カスタマイズのための純粋学習
- Authors: Zhichao Liao, Xiaole Xian, Qingyu Li, Wenyu Qin, Meng Wang, Weicheng Xie, Siyang Song, Pingfa Feng, Long Zeng, Liang Pan,
- Abstract要約: PureCCは、ターゲット概念の暗黙的なガイダンスと元の条件予測を組み合わせた学習目標である。
高忠実性の概念のカスタマイズを実現しつつ、元の動作と能力を維持する上で、最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 39.636507372965646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing concept customization methods have achieved remarkable outcomes in high-fidelity and multi-concept customization. However, they often neglect the influence on the original model's behavior and capabilities when learning new personalized concepts. To address this issue, we propose PureCC. PureCC introduces a novel decoupled learning objective for concept customization, which combines the implicit guidance of the target concept with the original conditional prediction. This separated form enables PureCC to substantially focus on the original model during training. Moreover, based on this objective, PureCC designs a dual-branch training pipeline that includes a frozen extractor providing purified target concept representations as implicit guidance and a trainable flow model producing the original conditional prediction, jointly achieving pure learning for personalized concepts. Furthermore, PureCC introduces a novel adaptive guidance scale $λ^\star$ to dynamically adjust the guidance strength of the target concept, balancing customization fidelity and model preservation. Extensive experiments show that PureCC achieves state-of-the-art performance in preserving the original behavior and capabilities while enabling high-fidelity concept customization. The code is available at https://github.com/lzc-sg/PureCC.
- Abstract(参考訳): 既存の概念のカスタマイズ手法は、高忠実度およびマルチコンセプトのカスタマイズにおいて顕著な成果を上げている。
しかし、彼らはしばしば、新しいパーソナライズされた概念を学ぶ際に、元のモデルの振る舞いと能力への影響を無視する。
この問題に対処するため,PureCCを提案する。
PureCCは、概念カスタマイズのための新しい分離学習目標を導入し、ターゲット概念の暗黙的なガイダンスと元の条件予測を組み合わせた。
この分離されたフォームにより、PureCCはトレーニング中に元のモデルに実質的にフォーカスすることができる。
さらに、この目的に基づき、PureCCは、暗黙のガイダンスとして純粋にターゲット概念表現を提供する凍結抽出器と、元の条件予測を生成するトレーニング可能なフローモデルを備え、パーソナライズされた概念のための純粋学習を共同で達成する、デュアルブランチトレーニングパイプラインを設計した。
さらに、PureCCは、ターゲットコンセプトのガイダンス強度を動的に調整し、カスタマイズの忠実度とモデル保存のバランスをとるために、新しい適応ガイダンススケール$λ^\star$を導入している。
大規模な実験により、PureCCは元の動作と能力を保ちながら、高忠実度の概念のカスタマイズを可能にした。
コードはhttps://github.com/lzc-sg/PureCCで公開されている。
関連論文リスト
- Beyond Heuristic Prompting: A Concept-Guided Bayesian Framework for Zero-Shot Image Recognition [81.2779530670268]
VLM(Vision-Language Models)は、ゼロショット画像認識を著しく進歩させたモデルである。
本稿では、クラス固有の概念を取り入れることで、プロンプトを強化する。
我々の手法は一貫して最先端の手法より優れている。
論文 参考訳(メタデータ) (2026-03-09T03:11:11Z) - Flexible Concept Bottleneck Model [7.3992593868058245]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を予測にマッピングする中間層を導入することで、ニューラルネットワークの解釈性を改善する。
本稿では,フレキシブル・コンセプト・ボトルネック・モデル (FCBM) を提案する。
提案手法は,同数の有効概念を持つ最先端のベースラインに匹敵する精度を実現する。
論文 参考訳(メタデータ) (2025-11-10T03:50:57Z) - Interpretable Reward Modeling with Active Concept Bottlenecks [54.00085739303773]
本稿では,解釈可能な嗜好学習を可能にする報酬モデリングフレームワークであるConcept Bottleneck Reward Models (CB-RM)を紹介する。
不透明報酬関数に依存する標準的なRLHF法とは異なり、CB-RMは報酬予測を人間の解釈可能な概念に分解する。
我々は,最も情報性の高い概念ラベルを動的に取得する能動的学習戦略を定式化する。
論文 参考訳(メタデータ) (2025-07-07T06:26:04Z) - ConceptGuard: Continual Personalized Text-to-Image Generation with Forgetting and Confusion Mitigation [3.7816957214446103]
ConceptGuardは、シフト埋め込み、コンセプトバインディングプロンプト、メモリ保存正規化を組み合わせた包括的なアプローチである。
本手法は, 定量的, 定性的な解析において, 基礎的手法を連続的に, 著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-03-13T13:39:24Z) - LLM Pretraining with Continuous Concepts [71.98047075145249]
次のトークン予測は、大規模言語モデルの事前トレーニングで使用される標準的なトレーニング目標である。
離散的な次のトークン予測と連続的な概念を組み合わせた新しい事前学習フレームワークであるContinuous Concept Mixing (CoCoMix)を提案する。
論文 参考訳(メタデータ) (2025-02-12T16:00:11Z) - ClassDiffusion: More Aligned Personalization Tuning with Explicit Class Guidance [90.57708419344007]
新しい概念を学ぶ際に, 概念空間を明示的に規制するために, ** 連続保存損失** を利用するテクニックである **ClassDiffusion** を提示する。
このアプローチは単純ではあるが、ターゲット概念の微調整過程における意味的ドリフトを効果的に防止する。
論文 参考訳(メタデータ) (2024-05-27T17:50:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。