論文の概要: FMD-cGAN: Fast Motion Deblurring using Conditional Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2111.15438v1
- Date: Tue, 30 Nov 2021 14:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 18:52:56.116832
- Title: FMD-cGAN: Fast Motion Deblurring using Conditional Generative
Adversarial Networks
- Title(参考訳): FMD-cGAN:条件付き生成対向ネットワークを用いた高速モーションデブロアリング
- Authors: Jatin Kumar and Indra Deep Mastan and Shanmuganathan Raman
- Abstract要約: 本稿では,1枚の画像の視覚的動きを識別するFMD-cGAN(Fast Motion Deblurring-Conditional Generative Adversarial Network)を提案する。
FMD-cGANは、画像が損なわれた後、印象的な構造的類似性と視覚的外観を提供する。
- 参考スコア(独自算出の注目度): 26.878173373199786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a Fast Motion Deblurring-Conditional Generative
Adversarial Network (FMD-cGAN) that helps in blind motion deblurring of a
single image. FMD-cGAN delivers impressive structural similarity and visual
appearance after deblurring an image. Like other deep neural network
architectures, GANs also suffer from large model size (parameters) and
computations. It is not easy to deploy the model on resource constraint devices
such as mobile and robotics. With the help of MobileNet based architecture that
consists of depthwise separable convolution, we reduce the model size and
inference time, without losing the quality of the images. More specifically, we
reduce the model size by 3-60x compare to the nearest competitor. The resulting
compressed Deblurring cGAN faster than its closest competitors and even
qualitative and quantitative results outperform various recently proposed
state-of-the-art blind motion deblurring models. We can also use our model for
real-time image deblurring tasks. The current experiment on the standard
datasets shows the effectiveness of the proposed method.
- Abstract(参考訳): 本稿では,1枚の画像のブラインド動作に有効なFMD-cGAN(Fast Motion Deblurring-Conditional Generative Adversarial Network)を提案する。
FMD-cGANは、画像が損なわれた後、印象的な構造的類似性と視覚的外観を提供する。
他のディープニューラルネットワークアーキテクチャと同様に、GANも大きなモデルサイズ(パラメータ)と計算に悩まされている。
モバイルやロボティクスなどのリソース制約デバイスにモデルをデプロイするのは容易ではない。
奥行き分離可能な畳み込みからなるMobileNetベースのアーキテクチャの助けを借りて,画像の品質を損なうことなく,モデルサイズと推論時間を短縮する。
具体的には、最も近い競合と比較してモデルサイズを3~60倍削減する。
その結果、圧縮されたデブロアリングcGANは、最も近い競合より高速で、定性的かつ定量的な結果でさえ、最近提案された最先端のブラインドモーションデブロアリングモデルより優れていた。
リアルタイムのイメージデブロア処理にもモデルを使用できます。
現在の標準データセット実験では,提案手法の有効性が示されている。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Alleviating Distortion in Image Generation via Multi-Resolution Diffusion Models [26.926712014346432]
本稿では,新しいマルチレゾリューションネットワークと時間依存層正規化を統合することで,拡散モデルの革新的拡張を提案する。
提案手法の有効性は,ImageNet 256 x 256で1.70,ImageNet 512 x 512で2.89の新しい最先端FIDスコアを設定することで,クラス条件のImageNet生成ベンチマークで実証される。
論文 参考訳(メタデータ) (2024-06-13T17:59:58Z) - VmambaIR: Visual State Space Model for Image Restoration [36.11385876754612]
VmambaIRは、画像復元タスクに線形に複雑な状態空間モデル(SSM)を導入する。
VmambaIRは、より少ない計算資源とパラメータで最先端(SOTA)性能を達成する。
論文 参考訳(メタデータ) (2024-03-18T02:38:55Z) - A-SDM: Accelerating Stable Diffusion through Redundancy Removal and
Performance Optimization [54.113083217869516]
本研究ではまず,ネットワークの計算冗長性について検討する。
次に、モデルの冗長性ブロックをプルークし、ネットワーク性能を維持する。
第3に,計算集約型注意部を高速化するグローバル地域対話型注意(GRI)を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:37:47Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Generative Adversarial Super-Resolution at the Edge with Knowledge
Distillation [1.3764085113103222]
シングルイメージのスーパーソリューションは、信頼できるビジュアルストリームが必要な環境でのロボットタスクをサポートすることができる。
我々は,EdgeSRGANと呼ばれるリアルタイム超解法のための効率的な生成逆ネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:58:41Z) - Projected GANs Converge Faster [50.23237734403834]
GAN(Generative Adversarial Networks)は高品質な画像を生成するが、訓練は難しい。
生成したサンプルと実際のサンプルを固定された事前訓練された特徴空間に投影することで、これらの問題に大きく取り組みます。
我々の投影GANは画像品質、サンプル効率、収束速度を改善する。
論文 参考訳(メタデータ) (2021-11-01T15:11:01Z) - A Compact Deep Architecture for Real-time Saliency Prediction [42.58396452892243]
唾液度モデルは、人間の視覚系における注意機構を模倣することを目的としている。
ディープモデルは多数のパラメータを持ち、リアルタイムアプリケーションには適さない。
本稿では,実時間精度予測のためのコンパクトかつ高速なモデルを提案する。
論文 参考訳(メタデータ) (2020-08-30T17:47:16Z) - A Real-time Action Representation with Temporal Encoding and Deep
Compression [115.3739774920845]
動作表現のための時間畳み込み3Dネットワーク(T-C3D)と呼ばれる新しいリアルタイム畳み込みアーキテクチャを提案する。
T-C3Dは、高プロセス速度を得ながら、階層的な多粒度でビデオアクション表現を学習する。
提案手法は,5MB未満のストレージモデルを用いて,提案手法の精度5.4%,推論速度2倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-06-17T06:30:43Z) - GAN Compression: Efficient Architectures for Interactive Conditional
GANs [45.012173624111185]
最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。