論文の概要: TC-LoRA: Temporally Modulated Conditional LoRA for Adaptive Diffusion Control
- arxiv url: http://arxiv.org/abs/2510.09561v1
- Date: Fri, 10 Oct 2025 17:13:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.493978
- Title: TC-LoRA: Temporally Modulated Conditional LoRA for Adaptive Diffusion Control
- Title(参考訳): TC-LoRA:適応拡散制御のための時間変調条件付きLORA
- Authors: Minkyoung Cho, Ruben Ohana, Christian Jacobsen, Adityan Jothi, Min-Hung Chen, Z. Morley Mao, Ethem Can,
- Abstract要約: 現在の制御可能な拡散モデルは、中間的なアクティベーションを変更して新しいモダリティに基づくガイダンスを注入する固定アーキテクチャに依存している。
モデルの重みを直接条件付けすることで動的文脈認識制御を可能にする新しいパラダイムであるTC-LoRAを導入する。
- 参考スコア(独自算出の注目度): 15.019368747393862
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current controllable diffusion models typically rely on fixed architectures that modify intermediate activations to inject guidance conditioned on a new modality. This approach uses a static conditioning strategy for a dynamic, multi-stage denoising process, limiting the model's ability to adapt its response as the generation evolves from coarse structure to fine detail. We introduce TC-LoRA (Temporally Modulated Conditional LoRA), a new paradigm that enables dynamic, context-aware control by conditioning the model's weights directly. Our framework uses a hypernetwork to generate LoRA adapters on-the-fly, tailoring weight modifications for the frozen backbone at each diffusion step based on time and the user's condition. This mechanism enables the model to learn and execute an explicit, adaptive strategy for applying conditional guidance throughout the entire generation process. Through experiments on various data domains, we demonstrate that this dynamic, parametric control significantly enhances generative fidelity and adherence to spatial conditions compared to static, activation-based methods. TC-LoRA establishes an alternative approach in which the model's conditioning strategy is modified through a deeper functional adaptation of its weights, allowing control to align with the dynamic demands of the task and generative stage.
- Abstract(参考訳): 現在の制御可能な拡散モデルは、通常、中間的なアクティベーションを変更して新しいモダリティに条件付きガイダンスを注入する固定されたアーキテクチャに依存している。
このアプローチでは、動的で多段階のdenoisingプロセスに静的条件付け戦略を使用し、生成が粗い構造から細部まで進化するにつれて、モデルが応答に適応する能力を制限する。
モデルの重みを直接条件付けすることで動的文脈認識制御を可能にする新しいパラダイムであるTC-LoRA(Toporally Modulated Conditional LoRA)を導入する。
我々のフレームワークはハイパーネットワークを用いてLoRAアダプタをオンザフライで生成し、時間とユーザの状態に基づいて各拡散ステップにおける冷凍バックボーンの重み付けを調整する。
このメカニズムにより、モデルが生成プロセス全体を通して条件付きガイダンスを適用するための明示的で適応的な戦略を学習し、実行することができる。
様々なデータ領域の実験を通して、この動的パラメトリック制御は、静的なアクティベーションベースの手法と比較して、生成的忠実度と空間的条件への固執性を著しく向上することを示した。
TC-LoRAは、モデルの条件付け戦略を重みのより深い機能的適応を通じて修正し、タスクと生成段階の動的要求に整合性を持たせるための代替アプローチを確立している。
関連論文リスト
- Flexible Locomotion Learning with Diffusion Model Predictive Control [46.432397190673505]
本稿では,学習した生成拡散モデルを計画に先立って近似力学として活用する拡散MPCを提案する。
我々の設計では、テスト時適応性が強く、プランナーは、再訓練することなく、新しい報酬仕様に調整できる。
我々はDiffusion-MPCを実世界で検証し、強い移動と柔軟な適応を示す。
論文 参考訳(メタデータ) (2025-10-05T14:51:13Z) - World Models as Reference Trajectories for Rapid Motor Adaptation [0.0]
リフレクティブ・ワールド・モデル(Reflexive World Models、RWM)は、世界モデル予測を暗黙の基準軌跡として使用し、迅速な適応を行うための二重制御フレームワークである。
本手法は、強化学習とロバストモータ実行により、制御問題を長期報酬に分離する。
論文 参考訳(メタデータ) (2025-05-21T14:46:41Z) - Distilling Reinforcement Learning Algorithms for In-Context Model-Based Planning [39.53836535326121]
In-context Model-based RL frameworkであるDistillation for In-Context Planning (DICP)を提案する。
以上の結果から,DICPはベースラインよりも環境相互作用を著しく少なく抑えながら,最先端の性能を実現することが示唆された。
論文 参考訳(メタデータ) (2025-02-26T10:16:57Z) - Dynamic Adaptation of LoRA Fine-Tuning for Efficient and Task-Specific Optimization of Large Language Models [0.7421845364041001]
本稿では,大規模言語モデル-動的LoRAのためのファインチューニング手法を提案する。
効率と性能を改善するために動的適応機構を追加します。
動的LoRAの効率は、ベンチマークデータセットの実験で検証された。
論文 参考訳(メタデータ) (2025-01-24T18:54:14Z) - Model Adaptation for Time Constrained Embodied Control [6.876580618014666]
モジュラーモデル適応を用いた時間制約を考慮した具体化制御フレームワークであるMoDeCを提案する。
モジュールネットワーク上の動的ルーティングとして資源および時間制限の様々な運用条件に対するモデル適応を定式化し、これらの条件をマルチタスクの目的の一部として組み込む。
ロボット操作と自律運転における時間制約の両面において,MoDeCのロバスト性を評価した結果,他のモデル適応手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-17T01:07:30Z) - Interactive Character Control with Auto-Regressive Motion Diffusion Models [18.727066177880708]
リアルタイム動作合成のためのA-MDM(Auto-Regressive Motion Diffusion Model)を提案する。
我々の条件拡散モデルは初期ポーズを入力とし、前者のフレームに条件付けられた連続した動きフレームを自動回帰的に生成する。
本稿では,タスク指向サンプリング,インペインティング,階層的強化学習など,対話型制御をA-MDMに組み込む一連の手法を紹介する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - Active Learning of Discrete-Time Dynamics for Uncertainty-Aware Model Predictive Control [46.81433026280051]
本稿では,非線形ロボットシステムの力学を積極的にモデル化する自己教師型学習手法を提案する。
我々のアプローチは、目に見えない飛行条件に一貫して適応することで、高いレジリエンスと一般化能力を示す。
論文 参考訳(メタデータ) (2022-10-23T00:45:05Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Autoregressive Dynamics Models for Offline Policy Evaluation and
Optimization [60.73540999409032]
表現的自己回帰ダイナミクスモデルが次の状態の異なる次元を生成し、以前の次元で順次条件付きで報酬を得ることを示す。
また,リプレイバッファを充実させる手段として,自己回帰的ダイナミクスモデルがオフラインポリシー最適化に有用であることを示す。
論文 参考訳(メタデータ) (2021-04-28T16:48:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。