論文の概要: UniCon: Unidirectional Information Flow for Effective Control of Large-Scale Diffusion Models
- arxiv url: http://arxiv.org/abs/2503.17221v1
- Date: Fri, 21 Mar 2025 15:25:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:56:30.365700
- Title: UniCon: Unidirectional Information Flow for Effective Control of Large-Scale Diffusion Models
- Title(参考訳): UniCon:大規模拡散モデルの効果的な制御のための一方向情報流
- Authors: Fanghua Yu, Jinjin Gu, Jinfan Hu, Zheyuan Li, Chao Dong,
- Abstract要約: UniConは、大規模な拡散モデルのためのトレーニングアダプタの制御と効率を向上させるために設計された新しいアーキテクチャである。
拡散モデルと制御アダプタの双方向相互作用に依存する既存の方法とは異なり、UniConは拡散ネットワークからアダプタへの一方向フローを実装している。
- 参考スコア(独自算出の注目度): 26.134500085677324
- License:
- Abstract: We introduce UniCon, a novel architecture designed to enhance control and efficiency in training adapters for large-scale diffusion models. Unlike existing methods that rely on bidirectional interaction between the diffusion model and control adapter, UniCon implements a unidirectional flow from the diffusion network to the adapter, allowing the adapter alone to generate the final output. UniCon reduces computational demands by eliminating the need for the diffusion model to compute and store gradients during adapter training. Our results indicate that UniCon reduces GPU memory usage by one-third and increases training speed by 2.3 times, while maintaining the same adapter parameter size. Additionally, without requiring extra computational resources, UniCon enables the training of adapters with double the parameter volume of existing ControlNets. In a series of image conditional generation tasks, UniCon has demonstrated precise responsiveness to control inputs and exceptional generation capabilities.
- Abstract(参考訳): 大規模拡散モデルのための訓練用アダプタの制御と効率を向上させるために設計された新しいアーキテクチャUniConを紹介する。
拡散モデルと制御アダプタの双方向相互作用に依存する既存の方法とは異なり、UniConは拡散ネットワークからアダプタへの一方向フローを実装し、アダプタのみが最終的な出力を生成する。
UniConは、アダプタトレーニング中に勾配を計算・保存する拡散モデルを不要にすることで、計算要求を減らす。
この結果から、UniConはGPUメモリ使用量を3分の1削減し、同じアダプタパラメータサイズを維持しながら、トレーニング速度を2.3倍に向上させることが示唆された。
さらに、余分な計算資源を必要とせずに、UniConは既存のControlNetのパラメータボリュームの2倍のアダプタのトレーニングを可能にする。
一連の画像条件生成タスクにおいて、UniConは制御入力に対する正確な応答性と例外生成能力を実証した。
関連論文リスト
- LinFusion: 1 GPU, 1 Minute, 16K Image [71.44735417472043]
我々は,広く普及している線形トークンミキサーの低ランク近似を導入する。
蒸留したLinFusionは,元のSDと同等以上の性能を示す。
SD-v1.5、SD-v2.1、SD-XLの実験は、LinFusionが良好なゼロショットクロスレゾリューション生成を可能にすることを示した。
論文 参考訳(メタデータ) (2024-09-03T17:54:39Z) - Face Adapter for Pre-Trained Diffusion Models with Fine-Grained ID and Attribute Control [59.954322727683746]
Face-Adapterは、事前訓練された拡散モデルのための高精度で忠実な顔編集のために設計されている。
Face-Adapterは、モーションコントロールの精度、ID保持能力、生成品質の点で同等またはそれ以上の性能を達成する。
論文 参考訳(メタデータ) (2024-05-21T17:50:12Z) - MerA: Merging Pretrained Adapters For Few-Shot Learning [71.44422347502409]
モデル融合により,事前学習したアダプタを単一モデルに効率的に組み込むことができるtextbftextttMerging Pretrained Adapters (MerA)を提案する。
2つのPLMの実験では、MerAはシングルアダプタとAdapterFusionの両方と比較して大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-30T12:10:17Z) - Uni-ControlNet: All-in-One Control to Text-to-Image Diffusion Models [82.19740045010435]
ローカルコントロールとグローバルコントロールの同時利用を可能にする統合フレームワークであるUni-ControlNetを紹介した。
既存の方法とは異なり、Uni-ControlNetは、凍結した事前訓練されたテキスト-画像拡散モデル上に2つのアダプタを微調整するだけでよい。
Uni-ControlNetは、制御性、生成品質、構成性の観点から、既存のメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-25T17:59:58Z) - AdaMix: Mixture-of-Adapter for Parameter-efficient Tuning of Large
Language Models [119.7093605087114]
大規模なトレーニング済み言語モデルをダウンストリームタスクに微調整するには、数億のパラメータを更新する必要がある。
これにより、各タスクのモデルの重みの大量コピーを格納するためのサービスコストが増大するだけでなく、数発のタスク適応中に不安定を示す。
パラメータや計算コストを2つの重要な手法で増大させることなく、アダプタ容量を改善するための新しいメカニズムを導入する。
論文 参考訳(メタデータ) (2022-05-24T23:41:22Z) - Resource-Efficient and Delay-Aware Federated Learning Design under Edge
Heterogeneity [10.702853653891902]
フェデレーテッド・ラーニング(FL)は、ワイヤレスエッジデバイスに機械学習を分散するための一般的な方法論として登場した。
本研究では,FLにおけるモデル性能と資源利用のトレードオフを最適化することを検討する。
提案したStoFedDelAvは、FL計算ステップに局所言語モデルコンバインダーを組み込む。
論文 参考訳(メタデータ) (2021-12-27T22:30:15Z) - AdapterDrop: On the Efficiency of Adapters in Transformers [53.845909603631945]
大規模に事前訓練されたトランスフォーマーモデルは、微調整に計算コストがかかり、推論に時間がかかり、大きなストレージ要求がある。
最近のアプローチでは、より小さなモデルをトレーニングし、モデルサイズを動的に削減し、軽量アダプタをトレーニングすることで、これらの欠点に対処している。
論文 参考訳(メタデータ) (2020-10-22T17:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。