論文の概要: Real-time division-of-focal-plane polarization imaging system with
progressive networks
- arxiv url: http://arxiv.org/abs/2110.13823v1
- Date: Tue, 26 Oct 2021 16:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 16:05:45.464992
- Title: Real-time division-of-focal-plane polarization imaging system with
progressive networks
- Title(参考訳): プログレッシブネットワークを用いたリアルタイム焦点偏光イメージングシステム
- Authors: Rongyuan Wu, Yongqiang Zhao, Ning Li, and Seong G.Kong
- Abstract要約: 本稿では,畳み込み畳み込みニューラルネットワーク(PPDN)を用いた高速DoFP復調システムを構築する。
PPDNは、Navidia Jetson TX2のようなエッジサイドGPUデバイス向けに特別に設計されている。
実験により、PDNはパラメータが少なく、推論速度が速い、最も優れた既存の手法と競合できることが示された。
- 参考スコア(独自算出の注目度): 6.818716240554243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Division-of-focal-plane (DoFP) polarization imaging technical recently has
been applied in many fields. However, the images captured by such sensors
cannot be used directly because they suffer from instantaneous field-of-view
errors and low resolution problem. This paper builds a fast DoFP demosaicing
system with proposed progressive polarization demosaicing convolutional neural
network (PPDN), which is specifically designed for edge-side GPU devices like
Navidia Jetson TX2. The proposed network consists of two parts: reconstruction
stage and refining stage. The former recovers four polarization channels from a
single DoFP image. The latter fine-tune the four channels to obtain more
accurate polarization information. PPDN can be implemented in another version:
PPDN-L (large), for the platforms of high computing resources. Experiments show
that PPDN can compete with the best existing methods with fewer parameters and
faster inference speed and meet the real-time demands of imaging system.
- Abstract(参考訳): 近年,多くの分野に焦点偏光イメージング技術が応用されている。
しかし、このようなセンサーが捉えた画像は、即時視野誤差や解像度の低い問題に悩まされるため、直接は利用できない。
本稿では,navidia jetson tx2のようなエッジサイドgpuデバイス用に特別に設計された,progressive polarization demosaicing convolutional neural network (ppdn)を提案する高速dofp復調システムを構築する。
提案するネットワークは,復元段階と精製段階の2つの部分からなる。
前者は、単一のDoFP画像から4つの分極チャネルを復元する。
後者は4つのチャネルを微調整し、より正確な分極情報を得る。
PPDNは別のバージョンで実装できる: PPDN-L (large) - ハイ・コンピューティング・リソースのプラットフォーム用。
実験により、PDNはパラメータが少なく、推論速度が速く、撮像システムのリアルタイム要求を満たす最も優れた既存の手法と競合できることが示された。
関連論文リスト
- Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - Passive Snapshot Coded Aperture Dual-Pixel RGB-D Imaging [25.851398356458425]
単発3Dセンシングは、顕微鏡、医用画像、手術ナビゲーション、自律運転など、多くの応用分野において有用である。
画像レンズに符号化開口とDPセンサを併用したCADS(Coded Aperture Dual-Pixel Sensing)を提案する。
以上の結果から,ALF(All-in-focus)推定では1.5dBPSNRが改善し,DPセンシングでは5-6%の深さ推定精度が得られた。
論文 参考訳(メタデータ) (2024-02-28T06:45:47Z) - A Beam-Segmenting Polar Format Algorithm Based on Double PCS for Video
SAR Persistent Imaging [27.6812116360734]
ビデオアパーチャレーダ(SAR)は、高解像度、高フレームレート、連続観測の利点により近年注目されている。
スポットライトモードビデオSARのための極フォーマットアルゴリズム(PFA)のプロセスにおいて、波面曲率誤差(WCE)は画像サイズを制限し、2次元画像は効率に影響を与える。
上記の課題を解決するため,BS-PCS-PFAと呼ばれるチャープスケーリング(PCS)の原理に基づくビーム分割型PFAがビデオSARイメージングのために提案されている。
提案手法は, PFAの有効サイズを大幅に拡大し, 運転効率を向上する。
論文 参考訳(メタデータ) (2023-12-19T14:39:49Z) - PS$^2$F: Polarized Spiral Point Spread Function for Single-Shot 3D
Sensing [19.300751531634884]
工学的点展開関数(PSF)に依存するコンパクトなスナップショット単眼深度推定手法を提案する。
シミュレーションと実験室の試作結果から,本手法は最先端設計と比較して50ドル以下で精度が低いことがわかった。
論文 参考訳(メタデータ) (2022-07-03T03:37:27Z) - Learning Dual-Pixel Alignment for Defocus Deblurring [73.80328094662976]
本稿では,デフォーカス除去のためのDPANet(Dual-Pixel Alignment Network)を提案する。
目に見える鋭い構造やテクスチャを回復しながら、デフォーカスのぼやけを減らし、最先端のデブロアリング法よりも優れている。
論文 参考訳(メタデータ) (2022-04-26T07:02:58Z) - Dual-view Snapshot Compressive Imaging via Optical Flow Aided Recurrent
Neural Network [14.796204921975733]
デュアルビュースナップショット圧縮イメージング(SCI)は、2つの視野(FoV)からのビデオを1つのスナップショットでキャプチャすることを目的としている。
既存のモデルベースの復号アルゴリズムでは個々のシーンを再構築することは困難である。
本稿では,2重ビデオSCIシステムのための光フロー支援型リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-09-11T14:24:44Z) - Time-Multiplexed Coded Aperture Imaging: Learned Coded Aperture and
Pixel Exposures for Compressive Imaging Systems [56.154190098338965]
提案した時間多重符号化開口(TMCA)をエンドツーエンドで最適化できることを示した。
tmcaは圧縮光野イメージングとハイパースペクトルイメージングの2つの異なる応用において、より良いコード化されたスナップショットを誘導する。
この凝固法は、最先端の圧縮画像システムよりも4dB以上性能が高い。
論文 参考訳(メタデータ) (2021-04-06T22:42:34Z) - An end-to-end CNN framework for polarimetric vision tasks based on
polarization-parameter-constructing network [19.622145287600386]
偏光情報を処理するには、偏光画像間の画素演算が重要である。
本稿では,偏光視覚タスクのためのエンドツーエンドCNNフレームワークを提案する。
R-CNNをタスクネットワークとしてより高速にすることで、既存の手法と比較して、オブジェクト検出タスクにおいて平均精度(mAP)がはるかに高いことを示す。
論文 参考訳(メタデータ) (2020-04-19T01:33:10Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。