論文の概要: Compressing Facial Makeup Transfer Networks by Collaborative
Distillation and Kernel Decomposition
- arxiv url: http://arxiv.org/abs/2009.07604v1
- Date: Wed, 16 Sep 2020 11:07:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:00:23.253820
- Title: Compressing Facial Makeup Transfer Networks by Collaborative
Distillation and Kernel Decomposition
- Title(参考訳): 協調蒸留と核分解による顔のメイクアップ転移ネットワークの圧縮
- Authors: Bianjiang Yang, Zi Hui, Haoji Hu, Xinyi Hu, Lu Yu
- Abstract要約: 我々は,共同蒸留とカーネル分解で顔のメイクアップ転送ネットワークを圧縮する。
カーネルの分解には、畳み込みカーネルの深さワイド分離を適用し、軽量な畳み込みニューラルネットワークを構築する。
最先端の顔化粧移動ネットワークであるBeautyGANに適用した場合, 圧縮法の有効性を示す実験を行った。
- 参考スコア(独自算出の注目度): 8.064401360571978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the facial makeup transfer network has achieved high-quality
performance in generating perceptually pleasing makeup images, its capability
is still restricted by the massive computation and storage of the network
architecture. We address this issue by compressing facial makeup transfer
networks with collaborative distillation and kernel decomposition. The main
idea of collaborative distillation is underpinned by a finding that the
encoder-decoder pairs construct an exclusive collaborative relationship, which
is regarded as a new kind of knowledge for low-level vision tasks. For kernel
decomposition, we apply the depth-wise separation of convolutional kernels to
build a light-weighted Convolutional Neural Network (CNN) from the original
network. Extensive experiments show the effectiveness of the compression method
when applied to the state-of-the-art facial makeup transfer network --
BeautyGAN.
- Abstract(参考訳): 顔のメイクアップ転送ネットワークは、知覚的にメイクアップ画像を生成することで高品質な性能を達成しているが、その能力はネットワークアーキテクチャの膨大な計算とストレージによって制限されている。
我々は,協調蒸留と核分解により顔のメイクアップ転送ネットワークを圧縮することでこの問題に対処した。
共同蒸留の主な考え方は、エンコーダとデコーダのペアが排他的な協調関係を構築することであり、これは低レベルの視覚タスクのための新しい種類の知識であると考えられている。
カーネルの分解には、畳み込みカーネルの深さワイド分離を適用し、元のネットワークから軽量畳み込みニューラルネットワーク(CNN)を構築する。
大規模な実験により,最先端の顔化粧ネットワーク -BeautyGAN に適用した場合の圧縮法の有効性が示された。
関連論文リスト
- Real-world Image Dehazing with Coherence-based Label Generator and Cooperative Unfolding Network [50.31598963315055]
実世界のイメージデハジングは、実世界の設定におけるヘイズによる劣化を軽減することを目的としている。
本研究では,大気散乱と画像シーンを協調的にモデル化する,協調的展開ネットワークを提案する。
また,コヒーレンスに基づくラベルジェネレータと呼ばれるRID指向の反復型平均教師フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T07:44:22Z) - Expediting Building Footprint Extraction from High-resolution Remote Sensing Images via progressive lenient supervision [38.46970858582502]
リモートセンシング画像からのフットプリントのセグメンテーションは、モデル転送の有効性によって妨げられている。
学習効率と効率性を高めるために,BFSeg と表記される効率的なフレームワークを提案する。
具体的には、高密度に接続された粗大な特徴核融合デコーダネットワークで、スケールをまたいで簡単に高速な特徴核融合を容易にする。
論文 参考訳(メタデータ) (2023-07-23T03:55:13Z) - CTCNet: A CNN-Transformer Cooperation Network for Face Image
Super-Resolution [64.06360660979138]
超解像課題に対する効率的なCNN-Transformer Cooperation Network (CTCNet)を提案する。
本稿ではまず,FSAUとTransformerブロックから構成されるLGCM(Local-Global Feature Cooperation Module)を考案した。
次に、エンコードされた機能を強化するために、効率的な機能リファインメントモジュール(FRM)を設計する。
論文 参考訳(メタデータ) (2022-04-19T06:38:29Z) - Exploring Structural Sparsity in Neural Image Compression [14.106763725475469]
本稿では,各コンボリューションチャネルの重要性を判定し,トレーニング中に空間性を導入するために,ABCM(プラグイン適応型バイナリチャネルマスキング)を提案する。
推論中、重要でないチャネルをプルーニングしてスリムネットワークを得る。
実験の結果,最大7倍の計算削減と3倍の加速は無視可能な性能低下で達成できることがわかった。
論文 参考訳(メタデータ) (2022-02-09T17:46:49Z) - Transformer-based SAR Image Despeckling [53.99620005035804]
本稿では,SAR画像復号化のためのトランスフォーマーネットワークを提案する。
提案する非特定ネットワークは、トランスフォーマーベースのエンコーダにより、異なる画像領域間のグローバルな依存関係を学習することができる。
実験により,提案手法は従来型および畳み込み型ニューラルネットワークに基づく解法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2022-01-23T20:09:01Z) - TANet: A new Paradigm for Global Face Super-resolution via
Transformer-CNN Aggregation Network [72.41798177302175]
本稿では, 顔構造特徴の表現能力を完全に探求する自己認識機構(すなわち Transformer のコア)に基づく新しいパラダイムを提案する。
具体的には、2つの経路からなるTransformer-CNNアグリゲーションネットワーク(TANet)を設計する。
上記の2つの経路から特徴を集約することにより、グローバルな顔の構造の整合性と局所的な顔のディテール復元の忠実度を同時に強化する。
論文 参考訳(メタデータ) (2021-09-16T18:15:07Z) - CoCo DistillNet: a Cross-layer Correlation Distillation Network for
Pathological Gastric Cancer Segmentation [0.0]
病理組織学的胃癌セグメンテーションのための知識蒸留ネットワークであるCoCo DistillNetを提案する。
我々のCoCo DistillNetは、異なる層間のチャネル混合空間的類似性の相関をモデル化し、この知識を事前学習された教師ネットワークから訓練されていないコンパクトな学生ネットワークに転送する。
その結果,胃癌データセットを用いた広範囲な実験により,CoCo DistillNetの顕著な機能を示すことができた。
論文 参考訳(メタデータ) (2021-08-27T08:36:00Z) - Kernelized dense layers for facial expression recognition [10.98068123467568]
本稿では,従来の線形関係ではなく,高次特徴相互作用をキャプチャするカーネル化Dense Layer (KDL)を提案する。
本モデルでは,最先端のアプローチに関して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2020-09-22T21:02:00Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Exploiting Semantics for Face Image Deblurring [121.44928934662063]
本稿では,深層畳み込みニューラルネットワークによる意味的手がかりを利用して,効果的かつ効率的な顔分解アルゴリズムを提案する。
顔のセマンティックラベルを入力先として組み込んで,顔の局所構造を正規化するための適応的構造損失を提案する。
提案手法は、より正確な顔の特徴と細部を持つシャープ画像を復元する。
論文 参考訳(メタデータ) (2020-01-19T13:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。