論文の概要: UGC: Unified GAN Compression for Efficient Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2309.09310v1
- Date: Sun, 17 Sep 2023 15:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 16:23:39.337110
- Title: UGC: Unified GAN Compression for Efficient Image-to-Image Translation
- Title(参考訳): UGC: 画像から画像への効率的な翻訳のための統一GAN圧縮
- Authors: Yuxi Ren, Jie Wu, Peng Zhang, Manlin Zhang, Xuefeng Xiao, Qian He, Rui
Wang, Min Zheng, Xin Pan
- Abstract要約: 我々はモデル効率とラベル効率の学習の相乗効果をシームレスに促進するための統一的な目的を持った新しい学習パラダイムUnified GAN Compression (UGC)を提案する。
異種相互学習スキームを定式化し、アーキテクチャに柔軟で、ラベル効率が高く、性能に優れたモデルを得る。
- 参考スコア(独自算出の注目度): 20.3126581529643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the prevailing progress of Generative Adversarial
Networks (GANs) in image-to-image translation. However, the success of these
GAN models hinges on ponderous computational costs and labor-expensive training
data. Current efficient GAN learning techniques often fall into two orthogonal
aspects: i) model slimming via reduced calculation costs;
ii)data/label-efficient learning with fewer training data/labels. To combine
the best of both worlds, we propose a new learning paradigm, Unified GAN
Compression (UGC), with a unified optimization objective to seamlessly prompt
the synergy of model-efficient and label-efficient learning. UGC sets up
semi-supervised-driven network architecture search and adaptive online
semi-supervised distillation stages sequentially, which formulates a
heterogeneous mutual learning scheme to obtain an architecture-flexible,
label-efficient, and performance-excellent model.
- Abstract(参考訳): 近年,画像と画像の翻訳におけるGAN(Generative Adversarial Networks)の進歩が注目されている。
しかし、これらのganモデルの成功は、計算コストと労働効率のトレーニングデータにかかっている。
現在の効率的なGAN学習技術は、しばしば2つの直交的な側面に該当する。
一 計算コストの低減によるモデルスリム化
二 トレーニングデータ/ラベルの少ないデータ/ラベル効率の学習。
両世界の長所を組み合わせるために,モデル効率とラベル効率の学習の相乗効果をシームレスに促進するために,統一された最適化目標を備えた新しい学習パラダイムUnified GAN Compression(UGC)を提案する。
ugcは半教師付きネットワークアーキテクチャ探索と適応型オンライン半教師付き蒸留ステージを順次設定し、異種相互学習スキームを定式化し、アーキテクチャフレキシブルでラベル効率が高く、性能に優れるモデルを得る。
関連論文リスト
- Efficient Semantic Diffusion Architectures for Model Training on Synthetic Echocardiograms [0.9765507069335528]
本稿では, セマンティックガイド付き人工心臓超音波画像を生成するために, LDM(Gamma$-distriion Latent Denoising Diffusion Models)を提案する。
また、左室区分けと2値心エコー図の分類タスクのための訓練深部ネットワークにおける実際のデータの代わりにこれらの合成画像を使用することの可能性についても検討した。
論文 参考訳(メタデータ) (2024-09-28T14:50:50Z) - TwinCL: A Twin Graph Contrastive Learning Model for Collaborative Filtering [20.26347686022996]
本研究では,従来の拡張手法の冗長性を実証し,ランダム拡張の代わりにツインエンコーダを導入する。
提案したTwin Graph Contrastive Learningモデル -- TwinCL -- は、ユーザとアイテムの埋め込みとツインエンコーダからの表現の正のペアを調整する。
理論的解析と実験結果から,提案モデルが推薦精度の向上と学習効率の向上に寄与することが示された。
論文 参考訳(メタデータ) (2024-09-27T22:31:08Z) - MTLSO: A Multi-Task Learning Approach for Logic Synthesis Optimization [19.13500546022262]
MTLSOは論理合成最適化のためのマルチタスク学習手法である。
一次回帰タスクと並行して,二元多ラベルグラフ分類の補助タスクを導入する。
また、階層的なグラフ表現学習戦略を用いて、表現力のあるグラフレベルの表現を学習するためのモデルの能力を向上させる。
論文 参考訳(メタデータ) (2024-09-09T21:20:36Z) - E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - CoopInit: Initializing Generative Adversarial Networks via Cooperative
Learning [50.90384817689249]
CoopInitは、協力的な学習ベースの戦略で、GANにとって良い出発点を素早く学べる。
本稿では,画像生成における提案手法の有効性を示す。
論文 参考訳(メタデータ) (2023-03-21T07:49:32Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - DANCE: DAta-Network Co-optimization for Efficient Segmentation Model
Training and Inference [85.02494022662505]
DANCEは、効率的なセグメンテーションモデルのトレーニングと推論のための自動データネットワーク協調最適化である。
入力イメージを適応的にダウンサンプル/ドロップする自動データスライミングを統合し、画像の空間的複雑さによって導かれるトレーニング損失に対するそれに対応するコントリビューションを制御する。
実験と非難研究により、DANCEは効率的なセグメンテーションに向けて「オールウィン」を達成できることを示した。
論文 参考訳(メタデータ) (2021-07-16T04:58:58Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。