論文の概要: Fix the Noise: Disentangling Source Feature for Transfer Learning of
StyleGAN
- arxiv url: http://arxiv.org/abs/2204.14079v1
- Date: Fri, 29 Apr 2022 13:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 12:51:18.639202
- Title: Fix the Noise: Disentangling Source Feature for Transfer Learning of
StyleGAN
- Title(参考訳): ノイズの修正:スタイルガンの転送学習のための音源特徴の分離
- Authors: Dongyeun Lee, Jae Young Lee, Doyeon Kim, Jaehyun Choi, Junmo Kim
- Abstract要約: StyleGANは、特にドメイン翻訳において、様々なタスクを解く大きな可能性を示している。
従来の手法では、転送学習中にウェイトを交換したり凍結したりすることで、ソースモデルを利用した。
本稿では,これらの制約を克服するための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 27.839719044644472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning of StyleGAN has recently shown great potential to solve
diverse tasks, especially in domain translation. Previous methods utilized a
source model by swapping or freezing weights during transfer learning, however,
they have limitations on visual quality and controlling source features. In
other words, they require additional models that are computationally demanding
and have restricted control steps that prevent a smooth transition. In this
paper, we propose a new approach to overcome these limitations. Instead of
swapping or freezing, we introduce a simple feature matching loss to improve
generation quality. In addition, to control the degree of source features, we
train a target model with the proposed strategy, FixNoise, to preserve the
source features only in a disentangled subspace of a target feature space.
Owing to the disentangled feature space, our method can smoothly control the
degree of the source features in a single model. Extensive experiments
demonstrate that the proposed method can generate more consistent and realistic
images than previous works.
- Abstract(参考訳): StyleGANの転送学習は、特にドメイン翻訳において、様々なタスクを解く大きな可能性を示している。
これまで、トランスファー学習中に重みを交換または凍結することでソースモデルを利用したが、それらは視覚品質とソース機能の制御に制限がある。
言い換えると、それらは計算上要求される追加のモデルを必要とし、滑らかな遷移を防ぐ制御ステップを制限している。
本稿では,これらの制約を克服するための新しいアプローチを提案する。
切り替えや凍結の代わりに、生成品質を改善するために単純な特徴マッチング損失を導入する。
さらに,ソース特性の程度を制御するために,提案手法であるfixnoiseを用いてターゲットモデルを訓練し,対象特徴空間の分断部分空間にのみソース特徴を保存する。
本手法は,不連続な特徴空間により,単一モデルにおける音源特性の程度を円滑に制御できる。
広範な実験により,提案手法が従来よりも一貫性と現実的な画像を生成することを実証した。
関連論文リスト
- SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Dynamic and Adaptive Feature Generation with LLM [10.142660254703225]
本稿では,特徴生成プロセスの解釈可能性を高める動的かつ適応的な特徴生成手法を提案する。
弊社のアプローチは、さまざまなデータタイプやタスクに適用可能性を広げ、戦略的柔軟性よりも優位性を引き出す。
論文 参考訳(メタデータ) (2024-06-04T20:32:14Z) - ZooPFL: Exploring Black-box Foundation Models for Personalized Federated
Learning [95.64041188351393]
本稿では,限られた資源とパーソナライゼーションの両課題を解決しようと試みる。
個人化フェデレート学習におけるゼロ階最適化を用いたZOOPFLという手法を提案する。
計算コストの削減とパーソナライゼーションの向上を目的として,低次元およびクライアント固有の埋め込みを持つオートエンコーダを組み込む入力手術を提案する。
論文 参考訳(メタデータ) (2023-10-08T12:26:13Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Exploiting Diffusion Prior for Real-World Image Super-Resolution [75.5898357277047]
本稿では,事前学習したテキスト・画像拡散モデルにカプセル化された事前知識を視覚的超解像に活用するための新しいアプローチを提案する。
時間認識エンコーダを用いることで、事前学習した合成モデルを変更することなく、有望な復元結果が得られる。
論文 参考訳(メタデータ) (2023-05-11T17:55:25Z) - Fix the Noise: Disentangling Source Feature for Controllable Domain
Translation [34.18091057284519]
制御性に優れた高品質なドメイン翻訳手法を提案する。
キーとなるアイデアは、ソースの機能を、ターゲットのフィーチャー空間のアンタングルされた部分空間内に保持することである。
実験の結果,提案手法はより一貫性があり,現実的な画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2023-03-21T02:19:48Z) - Feature Alignment by Uncertainty and Self-Training for Source-Free
Unsupervised Domain Adaptation [1.6498361958317636]
ほとんどの教師なし領域適応(UDA)手法は、ラベル付きソースイメージがモデル適応中に利用できると仮定する。
本稿では,事前学習したソースモデルと未ラベルのターゲット画像のみを用いる,ソースフリーなUDA手法を提案する。
本手法は,データ拡張を取り入れ,特徴発生器を2つの整合性目標で訓練することにより,アレータリックな不確実性を捕捉する。
論文 参考訳(メタデータ) (2022-08-31T14:28:36Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。