論文の概要: Playing Lottery Tickets in Style Transfer Models
- arxiv url: http://arxiv.org/abs/2203.13802v1
- Date: Fri, 25 Mar 2022 17:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 14:24:58.611583
- Title: Playing Lottery Tickets in Style Transfer Models
- Title(参考訳): 流儀乗り換えモデルにおける宝くじの遊び
- Authors: Meihao Kong, Jing Huo, Wenbin Li, Jing Wu, Yu-Kun Lai, Yang Gao
- Abstract要約: スタイル・トランスファーは大きな成功を収め、学術界と工業界の両方から幅広い注目を集めた。
しかし、かなり大きなVGGベースのオートエンコーダへの依存は、パラメータの複雑度が高い既存のスタイル転送モデルに繋がる。
本研究では,このようなトレーニング可能なネットワークが,スタイル伝達モデルにも存在するかどうかを検証するための,最初の実証的研究を行う。
- 参考スコア(独自算出の注目度): 57.55795986289975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Style transfer has achieved great success and attracted a wide range of
attention from both academic and industrial communities due to its flexible
application scenarios. However, the dependence on pretty large VGG based
autoencoder leads to existing style transfer models have a high parameter
complexities which limits the application for resource-constrained devices.
Unfortunately, the compression of style transfer model has less been explored.
In parallel, study on the lottery ticket hypothesis (LTH) has shown great
potential in finding extremely sparse matching subnetworks which can achieve on
par or even better performance than original full networks when trained in
isolation. In this work, we perform the first empirical study to verify whether
such trainable networks also exist in style transfer models. From a wide range
of style transfer methods, we choose two of the most popular style transfer
models as the main testbeds, i.e., AdaIN and SANet, representing approaches of
global and local transformation based style transfer respectively. Through
extensive experiments and comprehensive analysis, we draw the following main
conclusions. (1) Compared with fixing VGG encoder, style transfer models can
benefit more from training the whole network together. (2) Using iterative
magnitude pruning, we find the most sparse matching subnetworks at 89.2% in
AdaIN and 73.7% in SANet, which suggests that style transfer models can play
lottery tickets too. (3) Feature transformation module should also be pruned to
get a sparser model without affecting the existence and quality of matching
subnetworks. (4) Besides AdaIN and SANet, other models such as LST, MANet,
AdaAttN and MCCNet can also play lottert tickets, which shows that LTH can be
generalized to various style transfer models.
- Abstract(参考訳): スタイル転送は大きな成功を収め、フレキシブルなアプリケーションシナリオのため、学術コミュニティと産業コミュニティの両方から幅広い注目を集めている。
しかしながら、かなり大きなVGGベースのオートエンコーダに依存しているため、既存のスタイル転送モデルは、リソース制約されたデバイスに対するアプリケーションを制限する高いパラメータの複雑さを持つ。
残念ながら、スタイル転送モデルの圧縮は研究されていない。
並行して、抽選券仮説 (LTH) の研究は、独立して訓練された際、元のフルネットワークよりも同等またはそれ以上の性能で達成できる、非常にスパースなサブネットワークを見つける大きな可能性を示している。
本研究では,このようなトレーニング可能なネットワークがスタイル伝達モデルにも存在するかどうかを検証するための,最初の実証的研究を行う。
幅広いスタイル転送手法から,グローバルトランスフォーメーションとローカルトランスフォーメーションのアプローチをそれぞれ表現した,主要なテストベッドとして,最も人気のあるスタイルトランスファーモデル2つ,すなわちadainとsertを選択した。
広範な実験と包括的分析を通じて,以下の結論を導いた。
1)VGGエンコーダの修正と比較すると,ネットワーク全体のトレーニングにより,スタイル転送モデルの方が有利である。
2) AdaINの89.2%, SANetの73.7%において, 最もスパースなサブネットワークが, 反復等級プルーニングを用いており, スタイル転送モデルも宝くじを奏でる可能性が示唆されている。
3) 機能変換モジュールは、サブネットワークのマッチングの存在や品質に影響を与えることなく、スパーザーモデルを取得するためにprunするべきです。
(4) AdaIN, SANetに加えて, LST, MANet, AdaAttN, MCCNet などのモデルでも抽選券をプレイでき, LTH が様々なスタイルの転送モデルに一般化可能であることを示す。
関連論文リスト
- On the Adversarial Transferability of Generalized "Skip Connections" [83.71752155227888]
スキップ接続は、より深く、より強力な現代のディープモデルにとって重要な要素である。
バックプロパゲーションにおいて、バックプロパゲーション中に、スキップ接続からより多くの勾配を用いることで、高い転送性を持つ逆例を作成できることが分かる。
本稿では,ResNet,Transformer,Inceptions,Neural Architecture Search,Large Language Modelsなど,さまざまなモデルに対する包括的なトランスファー攻撃を行う。
論文 参考訳(メタデータ) (2024-10-11T16:17:47Z) - FISTNet: FusIon of STyle-path generative Networks for Facial Style Transfer [15.308837341075135]
StyleGAN法は、顔画像にアーティファクトが導入された結果、過度に適合する傾向にある。
本稿では,事前学習したマルチパス方式の転送ネットワークを利用する顔画像のためのFusIon of STyles(FIST)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-18T07:20:31Z) - Master: Meta Style Transformer for Controllable Zero-Shot and Few-Shot
Artistic Style Transfer [83.1333306079676]
本稿では,スタイル転送に特化した新しいトランスフォーマーモデルであるemphMasterを考案する。
提案モデルでは, 異なるトランスフォーマー層が共通のパラメータ群を共有し, 1) パラメータの総数を減らし, (2) より堅牢なトレーニング収束をもたらし, (3) は容易にスタイリングの程度を制御できる。
実験では、ゼロショットと少数ショットスタイルの転送設定の両方でMasterの優位性を示す。
論文 参考訳(メタデータ) (2023-04-24T04:46:39Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - On Optimizing the Communication of Model Parallelism [74.15423270435949]
大規模モデル並列ディープラーニング(DL)における新しい重要なコミュニケーションパターンについて検討する。
クロスメッシュリシャーディングでは、シャードテンソルをソースデバイスメッシュから宛先デバイスメッシュに送信する必要がある。
本稿では、効率的な放送ベースの通信システムと「重複しやすい」パイプラインスケジュールという、クロスメシュ・リシャーディングに対処するための2つのコントリビューションを提案する。
論文 参考訳(メタデータ) (2022-11-10T03:56:48Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。