論文の概要: SL-CycleGAN: Blind Motion Deblurring in Cycles using Sparse Learning
- arxiv url: http://arxiv.org/abs/2111.04026v1
- Date: Sun, 7 Nov 2021 07:42:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 08:25:10.354339
- Title: SL-CycleGAN: Blind Motion Deblurring in Cycles using Sparse Learning
- Title(参考訳): SL-CycleGAN:スパース学習によるサイクルのブラインド動作の低下
- Authors: Ali Syed Saqlain, Li-Yun Wang, Fang Fang
- Abstract要約: 本稿では,単一画像視覚障害者のためのスパース学習に基づくGAN(End-to-end Generative Adversarial Network)を提案する。
視覚障害者にとって初めて、スパース畳み込み層とトレーニング可能な空間プーラk-ウィンナーの組み合わせとしてスパースResNetブロックを提案する。
我々は、GoProデータセット上で38.087dBのPSNRを記録破りに達成し、最新のデブロアリング法よりも5.377dBのPSNRを実現した。
- 参考スコア(独自算出の注目度): 3.6828576285640353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce an end-to-end generative adversarial network
(GAN) based on sparse learning for single image blind motion deblurring, which
we called SL-CycleGAN. For the first time in blind motion deblurring, we
propose a sparse ResNet-block as a combination of sparse convolution layers and
a trainable spatial pooler k-winner based on HTM (Hierarchical Temporal Memory)
to replace non-linearity such as ReLU in the ResNet-block of SL-CycleGAN
generators. Furthermore, unlike many state-of-the-art GAN-based motion
deblurring methods that treat motion deblurring as a linear end-to-end process,
we take our inspiration from the domain-to-domain translation ability of
CycleGAN, and we show that image deblurring can be cycle-consistent while
achieving the best qualitative results. Finally, we perform extensive
experiments on popular image benchmarks both qualitatively and quantitatively
and achieve the record-breaking PSNR of 38.087 dB on GoPro dataset, which is
5.377 dB better than the most recent deblurring method.
- Abstract(参考訳): 本稿では,単一画像視覚障害者のためのスパース学習に基づくエンドツーエンド生成対向ネットワーク(GAN)を提案し,これをSL-CycleGANと呼ぶ。
本研究では, SL-CycleGANジェネレータのResNetブロックにおけるReLUなどの非線形性を置き換えるために, HTM(階層的テンポラルメモリ)に基づくスパース畳み込み層とトレーニング可能な空間プーラk-ウィンナーを組み合わせたスパースResNetブロックを提案する。
さらに, 運動脱ブルリングを線形エンド・ツー・エンドのプロセスとして扱う, 最先端のganベースの運動脱ブルリング法と異なり, cycleganのドメイン間翻訳能力から着想を得て, 最良の定性的結果を得るとともに, 画像脱ブルリングがサイクル一貫性を持つことを示す。
最後に,一般的な画像ベンチマークにおいて,定性的かつ定量的に広範に実験を行い,GoProデータセット上の38.087dBのPSNRを記録破りに達成した。
関連論文リスト
- SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - Gyroscope-Assisted Motion Deblurring Network [11.404195533660717]
本稿では、慣性計測ユニット(IMU)データを用いて、動きのぼかし画像の合成と復元を行う枠組みを提案する。
このフレームワークは、3重項生成のトレーニング戦略と、ぼやけた画像復元のためのジャイロスコープ支援モーションデブロアリング(GAMD)ネットワークを含む。
論文 参考訳(メタデータ) (2024-02-10T01:30:24Z) - StyleInV: A Temporal Style Modulated Inversion Network for Unconditional
Video Generation [73.54398908446906]
本稿では,GANのための学習型反転ネットワークを用いた新しいモーションジェネレータの設計を提案する。
本手法は,既訓練のStyleGANジェネレータとエンコーダをペアにした場合に,簡単な微調整でスタイル転送をサポートする。
論文 参考訳(メタデータ) (2023-08-31T17:59:33Z) - NL-CS Net: Deep Learning with Non-Local Prior for Image Compressive
Sensing [7.600617428107161]
近年,画像の圧縮センシング(CS)にディープラーニングが応用されている。
本稿では,従来の最適化手法の解釈可能性と,NL-CS Netと呼ばれるネットワークベース手法の高速化を併用した,非局所的前処理を用いた新しいCS手法を提案する。
論文 参考訳(メタデータ) (2023-05-06T02:34:28Z) - Continuous Facial Motion Deblurring [0.0]
GAN(CFMD-GAN)に基づく連続的顔動作劣化ネットワークを提案する。
ネットワークトレーニングを安定させるために、私たちはジェネレータを訓練し、顔の動きに基づく並べ替えプロセスによって決定された順序で連続的なモーメントを復元する。
300VWデータセットの実験では、モーメント制御係数を変化させることで、提案するフレームワークが様々な連続的な出力フレームを生成することを示した。
論文 参考訳(メタデータ) (2022-07-14T02:53:37Z) - Score-Guided Intermediate Layer Optimization: Fast Langevin Mixing for
Inverse Problem [97.64313409741614]
ランダム重み付きDNNジェネレータを反転させるため,Langevinアルゴリズムの定常分布を高速に混合し,特徴付ける。
本稿では,事前学習した生成モデルの潜時空間における後部サンプリングを提案する。
論文 参考訳(メタデータ) (2022-06-18T03:47:37Z) - Orthogonalising gradients to speed up neural network optimisation [0.0]
ニューラルネットワークの最適化は、最適化ステップの前に勾配を直交させ、学習された表現の多様化を保証することで、スピンアップすることができる。
この手法を ImageNet と CIFAR-10 上でテストした結果,学習時間が大幅に減少し,半教師付き学習BarlowTwins の高速化が得られた。
論文 参考訳(メタデータ) (2022-02-14T21:46:07Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - Two-Stage Self-Supervised Cycle-Consistency Network for Reconstruction
of Thin-Slice MR Images [62.4428833931443]
太いスライス磁気共鳴(MR)画像は、しばしば冠状および矢状視で構造的にぼやけている。
深層学習は、これらの低分解能(LR)症例から高分解能(HR)薄膜MR画像を再構築する大きな可能性を示している。
MRスライス再構成のための2段階自己監督型サイクル一貫性ネットワーク(TSCNet)を提案する。
論文 参考訳(メタデータ) (2021-06-29T13:29:18Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。