論文の概要: SETGAN: Scale and Energy Trade-off GANs for Image Applications on Mobile
Platforms
- arxiv url: http://arxiv.org/abs/2103.12896v1
- Date: Tue, 23 Mar 2021 23:51:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 22:49:11.971601
- Title: SETGAN: Scale and Energy Trade-off GANs for Image Applications on Mobile
Platforms
- Title(参考訳): SETGAN:モバイルプラットフォームにおける画像アプリケーションのためのスケールとエネルギーのトレードオフGAN
- Authors: Nitthilan Kannappan Jayakodi, Janardhan Rao Doppa, Partha Pratim Pande
- Abstract要約: 大規模エネルギートレードオフガン (SETGAN) と呼ばれる実行時に消費されるエネルギーに対するGANのトレードオフ画像生成精度に関する新しいアプローチを提案する。
我々は、完全に畳み込みGANのピラミッドを含む単一の画像非条件生成モデルであるSinGANを使用する。
SETGANのユニークなクライアントサーバベースのアーキテクチャでは、3%から12%のSSIM精度を失うことで、エネルギーの56%のアップを実現しました。
- 参考スコア(独自算出の注目度): 15.992829133103921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the task of photo-realistic unconditional image generation
(generate high quality, diverse samples that carry the same visual content as
the image) on mobile platforms using Generative Adversarial Networks (GANs). In
this paper, we propose a novel approach to trade-off image generation accuracy
of a GAN for the energy consumed (compute) at run-time called Scale-Energy
Tradeoff GAN (SETGAN). GANs usually take a long time to train and consume a
huge memory hence making it difficult to run on edge devices. The key idea
behind SETGAN for an image generation task is for a given input image, we train
a GAN on a remote server and use the trained model on edge devices. We use
SinGAN, a single image unconditional generative model, that contains a pyramid
of fully convolutional GANs, each responsible for learning the patch
distribution at a different scale of the image. During the training process, we
determine the optimal number of scales for a given input image and the energy
constraint from the target edge device. Results show that with SETGAN's unique
client-server-based architecture, we were able to achieve a 56% gain in energy
for a loss of 3% to 12% SSIM accuracy. Also, with the parallel multi-scale
training, we obtain around 4x gain in training time on the server.
- Abstract(参考訳): 本稿では,画像生成ネットワーク(gans)を用いて,モバイルプラットフォーム上での非条件画像生成(高品質で多彩なサンプル生成)の課題について考察する。
本稿では,SETGAN(Scale-Energy Tradeoff GAN)と呼ばれる,リアルタイムに消費されるエネルギー(コンピュテーション)に対するGANのトレードオフ画像生成精度の新たなアプローチを提案する。
ganは通常、トレーニングと巨大なメモリ消費に長い時間がかかるため、エッジデバイスでの実行が難しくなる。
画像生成タスクにおけるSETGANの鍵となるアイデアは、与えられた入力画像に対して、リモートサーバ上でGANをトレーニングし、エッジデバイス上でトレーニングされたモデルを使用することである。
我々は、画像の異なるスケールでパッチ分布を学習する責任を負う、完全な畳み込みGANのピラミッドを含む単一の画像非条件生成モデルであるSinGANを使用する。
トレーニング過程において,与えられた入力画像に対する最適スケール数と目標エッジ装置からのエネルギー制約を決定する。
その結果、SETGANのユニークなクライアントサーバベースのアーキテクチャでは、3%から12%のSSIM精度を失うことで、エネルギーの56%のアップを実現できた。
また、並列マルチスケールトレーニングでは、サーバ上でのトレーニング時間の約4倍のゲインが得られる。
関連論文リスト
- Faster Projected GAN: Towards Faster Few-Shot Image Generation [10.068622488926172]
本稿では,プロジェクテッドGANに基づく高速プロジェクテッドGANと呼ばれる改良型GANネットワークモデルを提案する。
深度分離可能な畳み込み(DSC)を導入することにより、投影されたGANのパラメータの数を削減し、トレーニング速度を加速し、メモリを節約する。
論文 参考訳(メタデータ) (2024-01-23T07:55:27Z) - E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - BigDatasetGAN: Synthesizing ImageNet with Pixel-wise Annotations [89.42397034542189]
我々は,GAN(Generative Adversarial Network)を介して,大規模ラベル付きデータセットを合成する。
我々は、ImageNetで訓練されたクラス条件生成モデルBigGANの画像サンプルを、すべての1kクラスに対して、クラス毎の5つのイメージを手動でアノテートする。
我々は、追加の8k実画像のセットをラベル付けして、新しいImageNetベンチマークを作成し、様々な設定でセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2022-01-12T20:28:34Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Projected GANs Converge Faster [50.23237734403834]
GAN(Generative Adversarial Networks)は高品質な画像を生成するが、訓練は難しい。
生成したサンプルと実際のサンプルを固定された事前訓練された特徴空間に投影することで、これらの問題に大きく取り組みます。
我々の投影GANは画像品質、サンプル効率、収束速度を改善する。
論文 参考訳(メタデータ) (2021-11-01T15:11:01Z) - Towards Faster and Stabilized GAN Training for High-fidelity Few-shot
Image Synthesis [21.40315235087551]
1024*1024解像度で優れた品質を得る軽量GAN構造を提案します。
データとコンピューティングの予算が限られている場合、私たちのモデルが最先端のstylegan2よりも優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2021-01-12T22:02:54Z) - TinyGAN: Distilling BigGAN for Conditional Image Generation [2.8072597424460466]
BigGANはImageNetの画像生成の質を大幅に改善しましたが、巨大なモデルが必要で、リソースに制約のあるデバイスへのデプロイが困難になります。
本稿では,GANを圧縮するためのブラックボックス知識蒸留フレームワークを提案する。
教師ネットワークとしてBigGANを前提として、私たちは、インセプションとFIDスコアの競合的なパフォーマンスを達成するために、はるかに小さな学生ネットワークをトレーニングしました。
論文 参考訳(メタデータ) (2020-09-29T07:33:49Z) - Training End-to-end Single Image Generators without GANs [27.393821783237186]
AugurOneは、単一画像生成モデルをトレーニングするための新しいアプローチである。
提案手法は,入力画像の非アフィン強化を用いて,アップスケーリングニューラルネットワークを訓練する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
論文 参考訳(メタデータ) (2020-04-07T17:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。