論文の概要: Distilling portable Generative Adversarial Networks for Image
Translation
- arxiv url: http://arxiv.org/abs/2003.03519v1
- Date: Sat, 7 Mar 2020 05:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 19:03:58.130960
- Title: Distilling portable Generative Adversarial Networks for Image
Translation
- Title(参考訳): 画像翻訳のための可搬型生成逆ネットワークの蒸留
- Authors: Hanting Chen, Yunhe Wang, Han Shu, Changyuan Wen, Chunjing Xu, Boxin
Shi, Chao Xu, Chang Xu
- Abstract要約: 従来のネットワーク圧縮手法は、視覚的に認識されるタスクに焦点をあてるが、生成タスクには対処しない。
知識蒸留にインスパイアされた学生は、元の重教師ジェネレータから低レベルおよび高レベル情報を継承することにより、少ないパラメータの学生ジェネレータを訓練する。
生徒ジェネレータと生徒識別器を最適化するために、対向学習プロセスを確立する。
- 参考スコア(独自算出の注目度): 101.33731583985902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite Generative Adversarial Networks (GANs) have been widely used in
various image-to-image translation tasks, they can be hardly applied on mobile
devices due to their heavy computation and storage cost. Traditional network
compression methods focus on visually recognition tasks, but never deal with
generation tasks. Inspired by knowledge distillation, a student generator of
fewer parameters is trained by inheriting the low-level and high-level
information from the original heavy teacher generator. To promote the
capability of student generator, we include a student discriminator to measure
the distances between real images, and images generated by student and teacher
generators. An adversarial learning process is therefore established to
optimize student generator and student discriminator. Qualitative and
quantitative analysis by conducting experiments on benchmark datasets
demonstrate that the proposed method can learn portable generative models with
strong performance.
- Abstract(参考訳): Generative Adversarial Networks (GAN) は様々な画像と画像の変換タスクで広く使われているが、計算量やストレージコストが重いため、モバイルデバイスにはほとんど適用できない。
従来のネットワーク圧縮手法は視覚認識タスクに焦点をあてるが、生成タスクには対処しない。
知識蒸留にインスパイアされ、元の重教師生成装置から低レベル・高レベル情報を継承することにより、少ないパラメータの学生ジェネレータを訓練する。
生徒生成装置の能力を高めるために,実画像間の距離を測定する学生判別器と,生徒と教師が生成する画像を含む。
そこで, 生徒の学習過程を最適化し, 生徒の識別を最適化する。
ベンチマークデータセット実験による質的・定量的解析により,提案手法が強力な性能を持つ可搬型生成モデルを学ぶことができることを示す。
関連論文リスト
- Efficient Visualization of Neural Networks with Generative Models and Adversarial Perturbations [0.0]
本稿では,既存の手法を改良した生成ネットワークによるディープビジュアライゼーション手法を提案する。
我々のモデルは、使用するネットワーク数を減らし、ジェネレータと識別器のみを必要とすることにより、アーキテクチャを単純化する。
我々のモデルは、事前の訓練知識を少なくし、差別者がガイドとして機能する非敵的訓練プロセスを使用する。
論文 参考訳(メタデータ) (2024-09-20T14:59:25Z) - Generator Born from Classifier [66.56001246096002]
データサンプルに頼ることなく、イメージジェネレータを再構築することを目指している。
本稿では,ネットワークパラメータの収束条件を満たすために,ジェネレータを訓練する新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-05T03:41:17Z) - End to End Generative Meta Curriculum Learning For Medical Data
Augmentation [2.471925498075058]
最近の医用画像合成増強技術は、GAN(Generative Adversarial Network)の集中的利用に依存している
本稿では,1つの教師モデルのみを用いて,タスク特化モデル(学生)をエンドツーエンドに学習する新しいメタカリキュラム学習手法を提案する。
GANのジェネレータと差別装置が互いに競合するのに対し、教師と生徒は、目標タスクにおける生徒のパフォーマンスを改善するために協力する。
論文 参考訳(メタデータ) (2022-12-20T08:54:11Z) - Distilling Representations from GAN Generator via Squeeze and Span [55.76208869775715]
本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
論文 参考訳(メタデータ) (2022-11-06T01:10:28Z) - Momentum Adversarial Distillation: Handling Large Distribution Shifts in
Data-Free Knowledge Distillation [65.28708064066764]
モーメントム逆蒸留法(MAD)という簡便で効果的な方法を提案する。
MADは、ジェネレータの指数移動平均(EMA)コピーを保持し、ジェネレータとEMAジェネレータの合成サンプルを使用して生徒を訓練する。
ImageNetやPlaces365のような大きなデータセットを含む6つのベンチマークデータセットの実験では、競合する手法よりもMADの方が優れた性能を示している。
論文 参考訳(メタデータ) (2022-09-21T13:53:56Z) - Generative Cooperative Networks for Natural Language Generation [25.090455367573988]
本稿では,リアルテキストのサンプルを出力する生成ポリシーとともに,識別器アーキテクチャを協調的に使用する生成協調ネットワークについて紹介する。
我々は,提案手法の収束を理論的に保証し,2つの主要なNLGタスクにおいて,最先端の成果を実証的に達成するための様々な効率的な復号化手法について検討する。
論文 参考訳(メタデータ) (2022-01-28T18:36:57Z) - Discriminative-Generative Representation Learning for One-Class Anomaly
Detection [22.500931323372303]
生成法と識別法を組み合わせた自己教師型学習フレームワークを提案する。
提案手法は,複数のベンチマークデータセットにおいて,最先端の処理性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-27T11:46:15Z) - Representation Consolidation for Training Expert Students [54.90754502493968]
マルチヘッド多タスク蒸留法は,タスク固有の教師の表現を集約し,下流のパフォーマンスを向上させるのに十分であることを示す。
また,本手法では,複数のドメインで訓練された複数の教師の表現的知識を1つのモデルに組み合わせることができる。
論文 参考訳(メタデータ) (2021-07-16T17:58:18Z) - Teachers Do More Than Teach: Compressing Image-to-Image Models [35.40756344110666]
generative adversarial networks (gans) は高忠実度画像の生成に多大な成功を収めている。
ganは膨大な計算コストと大量のメモリ使用量のために低効率に苦しむ。
圧縮GANの最近の取り組みは、小型発電機の取得の顕著な進歩を示しています。
論文 参考訳(メタデータ) (2021-03-05T04:29:34Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。