論文の概要: Depth Estimation from a Single Optical Encoded Image using a Learned
Colored-Coded Aperture
- arxiv url: http://arxiv.org/abs/2309.08033v1
- Date: Thu, 14 Sep 2023 21:30:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 16:47:14.830983
- Title: Depth Estimation from a Single Optical Encoded Image using a Learned
Colored-Coded Aperture
- Title(参考訳): 学習カラー符号化アパーチャを用いた単一光学符号化画像からの深さ推定
- Authors: Jhon Lopez, Edwin Vargas, Henry Arguello
- Abstract要約: State-of-the-artアプローチは、レンズ開口にバイナリ符号化開口(CA)を導入することにより、異なる深さの識別を改善する。
カラー符号化開口(CCA)は、撮影画像に色ずれを生じさせ、不一致を推定することができる。
本稿では,カラーフィルタの多さとスペクトル情報のリッチ化により,関連する深度情報を1枚のスナップショットで光学的に符号化するCCAを提案する。
- 参考スコア(独自算出の注目度): 18.830374973687416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth estimation from a single image of a conventional camera is a
challenging task since depth cues are lost during the acquisition process.
State-of-the-art approaches improve the discrimination between different depths
by introducing a binary-coded aperture (CA) in the lens aperture that generates
different coded blur patterns at different depths. Color-coded apertures (CCA)
can also produce color misalignment in the captured image which can be utilized
to estimate disparity. Leveraging advances in deep learning, more recent works
have explored the data-driven design of a diffractive optical element (DOE) for
encoding depth information through chromatic aberrations. However, compared
with binary CA or CCA, DOEs are more expensive to fabricate and require
high-precision devices. Different from previous CCA-based approaches that
employ few basic colors, in this work we propose a CCA with a greater number of
color filters and richer spectral information to optically encode relevant
depth information in a single snapshot. Furthermore, we propose to jointly
learn the color-coded aperture (CCA) pattern and a convolutional neural network
(CNN) to retrieve depth information by using an end-to-end optimization
approach. We demonstrate through different experiments on three different data
sets that the designed color-encoding has the potential to remove depth
ambiguities and provides better depth estimates compared to state-of-the-art
approaches. Additionally, we build a low-cost prototype of our CCA using a
photographic film and validate the proposed approach in real scenarios.
- Abstract(参考訳): 従来のカメラの単一画像からの深度推定は、取得プロセス中に奥行きの手がかりが失われるため、難しい課題である。
最先端のアプローチは、異なる深さで異なる符号付きぼかしパターンを生成するレンズ開口にバイナリ符号化開口(CA)を導入することにより、異なる深さの識別を改善する。
カラー符号化開口(CCA)は、撮影画像に色ずれを生じさせ、不一致を推定することができる。
ディープラーニングの進歩を生かして、より最近の研究は、色収差による深度情報を符号化するための回折光学素子(DOE)のデータ駆動設計を探求している。
しかし、バイナリCAやCAAと比較すると、DOEは製造コストが高く、高精度な装置を必要とする。
基本色がほとんどない従来のCCAベースのアプローチとは異なり、本研究では、より多くのカラーフィルタとよりリッチなスペクトル情報を用いて、関連する深度情報を単一のスナップショットで光学的に符号化するCCAを提案する。
さらに,カラー符号化開口(CCA)パターンと畳み込みニューラルネットワーク(CNN)を併用して,エンドツーエンド最適化手法を用いて深度情報を取得することを提案する。
3つの異なるデータセットについて異なる実験を行い、設計したカラーエンコーディングは奥行きあいまいさを取り除き、最先端のアプローチよりも奥行き推定を改善する可能性を実証した。
さらに,写真フィルムを用いて低コストでCCAのプロトタイプを作成し,実際のシナリオで提案手法を検証した。
関連論文リスト
- Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Deep Phase Coded Image Prior [34.84063452418995]
位相符号化イメージングは受動深度推定や拡大深度推定といった課題に対処する手法である。
深度推定やオールインフォーカスイメージングのための現在のディープラーニングベースの手法のほとんどは、高品質の深度マップを備えたトレーニングデータセットを必要とする。
本稿では,深度マップと全焦点画像の同時復元のためのDPCIP (Deep Phase Coded Image Prior) を提案する。
論文 参考訳(メタデータ) (2024-04-05T05:58:40Z) - Exploring Deep Learning Image Super-Resolution for Iris Recognition [50.43429968821899]
重畳自動エンコーダ(SAE)と畳み込みニューラルネットワーク(CNN)の2つの深層学習単一画像超解法手法を提案する。
精度評価と認識実験により,1.872個の近赤外虹彩画像のデータベースを用いて評価を行い,比較アルゴリズムよりも深層学習の方が優れていることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:57:48Z) - AGG-Net: Attention Guided Gated-convolutional Network for Depth Image
Completion [1.8820731605557168]
注意誘導ゲート畳み込みネットワーク(AGG-Net)に基づく深度画像補完のための新しいモデルを提案する。
符号化段階では、異なるスケールでの深度と色の特徴の融合を実現するために、AG-GConvモジュールが提案されている。
復号段階では、アテンションガイドスキップ接続(AG-SC)モジュールが提示され、再構成にあまりにも多くの深度に関係のない特徴を導入することを避ける。
論文 参考訳(メタデータ) (2023-09-04T14:16:08Z) - DEHRFormer: Real-time Transformer for Depth Estimation and Haze Removal
from Varicolored Haze Scenes [10.174140482558904]
そこで本研究では,画像深度推定とヘイズ除去を同時に行うリアルタイムトランスフォーマを提案する。
DEHRFormerは1つのエンコーダと2つのタスク固有のデコーダで構成される。
対照的な学習とドメイン整合性学習を利用して、現実のデハジングにおける弱い一般化問題に取り組む新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-13T07:47:18Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - PDC: Piecewise Depth Completion utilizing Superpixels [0.0]
現在のアプローチは、いくつかの既知の欠点のあるCNNベースのメソッドに依存することが多い。
深層学習なしで完全に機能する小説『Piecewise Depth Completion』(PDC)を提案する。
本評価では,提案した処理ステップがKITTIデータセットに与える影響と,本手法の全体的な性能に与える影響について述べる。
論文 参考訳(メタデータ) (2021-07-14T13:58:39Z) - Time-Multiplexed Coded Aperture Imaging: Learned Coded Aperture and
Pixel Exposures for Compressive Imaging Systems [56.154190098338965]
提案した時間多重符号化開口(TMCA)をエンドツーエンドで最適化できることを示した。
tmcaは圧縮光野イメージングとハイパースペクトルイメージングの2つの異なる応用において、より良いコード化されたスナップショットを誘導する。
この凝固法は、最先端の圧縮画像システムよりも4dB以上性能が高い。
論文 参考訳(メタデータ) (2021-04-06T22:42:34Z) - Dual Pixel Exploration: Simultaneous Depth Estimation and Image
Restoration [77.1056200937214]
本研究では,ぼかしと深度情報をリンクするDPペアの形成について検討する。
本稿では,画像の深さを共同で推定し,復元するためのエンドツーエンドDDDNet(DPベースのDepth and De Network)を提案する。
論文 参考訳(メタデータ) (2020-12-01T06:53:57Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。