論文の概要: Atmospheric Turbulence Removal with Video Sequence Deep Visual Priors
- arxiv url: http://arxiv.org/abs/2402.19041v1
- Date: Thu, 29 Feb 2024 11:06:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:13:28.873966
- Title: Atmospheric Turbulence Removal with Video Sequence Deep Visual Priors
- Title(参考訳): ビデオシーケンス深部視覚前処理による大気乱流除去
- Authors: P. Hill, N. Anantrasirichai, A. Achim, and D.R. Bull
- Abstract要約: 大気画像は、その歪みの影響により、解釈と視覚的知覚に挑戦する。
モデルに基づくアプローチはこの問題に対処するために使われてきたが、そのような手法は、しばしば移動コンテンツに関連する成果物に悩まされる。
本稿では,基礎的真理を必要としない自己教師型学習手法を用いて,これらの問題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Atmospheric turbulence poses a challenge for the interpretation and visual
perception of visual imagery due to its distortion effects. Model-based
approaches have been used to address this, but such methods often suffer from
artefacts associated with moving content. Conversely, deep learning based
methods are dependent on large and diverse datasets that may not effectively
represent any specific content. In this paper, we address these problems with a
self-supervised learning method that does not require ground truth. The
proposed method is not dependent on any dataset outside of the single data
sequence being processed but is also able to improve the quality of any input
raw sequences or pre-processed sequences. Specifically, our method is based on
an accelerated Deep Image Prior (DIP), but integrates temporal information
using pixel shuffling and a temporal sliding window. This efficiently learns
spatio-temporal priors leading to a system that effectively mitigates
atmospheric turbulence distortions. The experiments show that our method
improves visual quality results qualitatively and quantitatively.
- Abstract(参考訳): 大気の乱流は、その歪みの影響により視覚的イメージの解釈と視覚的認識が困難である。
モデルに基づくアプローチはこの問題に対処するために使われてきたが、そのような手法は、しばしば移動コンテンツに関連する成果物に悩まされる。
逆に、ディープラーニングベースの手法は、特定のコンテンツを効果的に表現できない、大規模で多様なデータセットに依存している。
本稿では,基礎的真理を必要としない自己教師型学習手法を用いて,これらの問題に対処する。
提案手法は、処理中の単一のデータ列以外のデータセットに依存しないが、任意の入力生シーケンスや前処理されたシーケンスの品質を向上させることもできる。
具体的には,高速化されたDeep Image Prior (DIP) に基づき,画素シャッフルと時間スライディングウィンドウを用いて時間情報を統合する。
これにより、大気乱流の歪みを効果的に緩和するシステムにつながる時空間前兆を効率的に学習する。
実験の結果,視覚的品質は質的に,定量的に向上することがわかった。
関連論文リスト
- Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z) - DepthFM: Fast Monocular Depth Estimation with Flow Matching [22.206355073676082]
この問題に対する現在の差別的アプローチは、ぼやけた人工物のために限られている。
最先端の生成法は、SDEの性質上、サンプリングが遅い。
解空間を通した直線軌道は効率と高品質を提供するので,フローマッチングを用いて効果的にフレーム化することができる。
論文 参考訳(メタデータ) (2024-03-20T17:51:53Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - Let's Enhance: A Deep Learning Approach to Extreme Deblurring of Text
Images [3.441021278275805]
本研究は,画像劣化の逆問題に対する,ディープラーニングに基づく新しいパイプラインを提案する。
我々の結果は、最新の最先端のデブロアリングアルゴリズムの限界を探求することを目的とした、最近のヘルシンキのデブロアリングチャレンジ2021への私たちの勝利を基盤にしています。
論文 参考訳(メタデータ) (2022-11-18T09:06:56Z) - Atmospheric Turbulence Removal with Complex-Valued Convolutional Neural
Network [2.657505380055164]
大気の乱流は視覚的イメージを歪め、人間と機械の両方による情報解釈には常に問題となる。
ディープラーニングベースのアプローチが注目されているが、現在は静的シーンのみに効率よく機能している。
本稿では,動的シーンをサポートするための短時間の時間的スパンニングを提供する,新しい学習ベースフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-14T14:29:32Z) - Deep Video Prior for Video Consistency and Propagation [58.250209011891904]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
提案手法は,大規模なデータセットではなく,オリジナルビデオとプロセッシングビデオのペアでのみ訓練される。
我々は、Deep Video Priorでビデオ上で畳み込みニューラルネットワークをトレーニングすることで、時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-27T16:38:52Z) - LTT-GAN: Looking Through Turbulence by Inverting GANs [86.25869403782957]
本稿では,よく訓練されたGANによってカプセル化された視覚的事前情報を利用した最初の乱流緩和手法を提案する。
視覚的先行性に基づき、周期的な文脈距離で復元された画像の同一性を維持することを学ぶことを提案する。
本手法は, 回復した結果の視覚的品質と顔認証精度の両方において, 先行技術よりも優れていた。
論文 参考訳(メタデータ) (2021-12-04T16:42:13Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Contextual colorization and denoising for low-light ultra high
resolution sequences [0.0]
低光度画像のシーケンスは、通常、非一貫性のノイズ、フリック、オブジェクトや動くオブジェクトのぼやけに苦しむ。
我々はこれらの問題に,同時着色と着色を同時に行う未経験学習手法で対処する。
提案手法は,主観的品質の観点から既存手法よりも優れており,輝度レベルや雑音の変動に頑健であることを示す。
論文 参考訳(メタデータ) (2021-01-05T15:35:29Z) - Blind Video Temporal Consistency via Deep Video Prior [61.062900556483164]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
本手法は,一対のオリジナルビデオとプロセッシングビデオを直接トレーニングするのみである。
本稿では,Deep Video Priorを用いてビデオ上の畳み込みネットワークをトレーニングすることにより,時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:19:20Z) - Learning Model-Blind Temporal Denoisers without Ground Truths [46.778450578529814]
合成データで訓練されたデノイザーは、未知のノイズの多様性に対処できないことが多い。
従来の画像ベース手法は、ビデオデノイザに直接適用した場合、ノイズが過度に収まる。
本稿では,これらの課題に対処する上で有効な,ビデオ・デノベーション・ネットワークの汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-07T07:19:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。