論文の概要: Depth from Coupled Optical Differentiation
- arxiv url: http://arxiv.org/abs/2409.10725v1
- Date: Mon, 16 Sep 2024 20:58:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 18:40:30.071135
- Title: Depth from Coupled Optical Differentiation
- Title(参考訳): 結合型光偏光の深さ
- Authors: Junjie Luo, Yuxuan Liu, Emma Alexander, Qi Guo,
- Abstract要約: 我々は,低計算受光3次元センシング機構である光の複合化による深度推定法を提案する。
我々は、結合した光の微分から深度に基づいて、最初の3次元センサを構築する。
- 参考スコア(独自算出の注目度): 6.89869230944958
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose depth from coupled optical differentiation, a low-computation passive-lighting 3D sensing mechanism. It is based on our discovery that per-pixel object distance can be rigorously determined by a coupled pair of optical derivatives of a defocused image using a simple, closed-form relationship. Unlike previous depth-from-defocus (DfD) methods that leverage spatial derivatives of the image to estimate scene depths, the proposed mechanism's use of only optical derivatives makes it significantly more robust to noise. Furthermore, unlike many previous DfD algorithms with requirements on aperture code, this relationship is proved to be universal to a broad range of aperture codes. We build the first 3D sensor based on depth from coupled optical differentiation. Its optical assembly includes a deformable lens and a motorized iris, which enables dynamic adjustments to the optical power and aperture radius. The sensor captures two pairs of images: one pair with a differential change of optical power and the other with a differential change of aperture scale. From the four images, a depth and confidence map can be generated with only 36 floating point operations per output pixel (FLOPOP), more than ten times lower than the previous lowest passive-lighting depth sensing solution to our knowledge. Additionally, the depth map generated by the proposed sensor demonstrates more than twice the working range of previous DfD methods while using significantly lower computation.
- Abstract(参考訳): 我々は,低計算受光3次元センシング機構である光の複合化による深度推定を提案する。
画素単位の物体距離は、単純な閉形式関係を用いて、デフォーカス画像の1対の光学微分によって厳密に決定できるという発見に基づいている。
画像の空間的デリバティブを利用してシーン深度を推定する従来のDfD法とは異なり、提案手法では光学的デリバティブのみを用いることで、ノイズに対して著しく堅牢である。
さらに、アパーチャ符号が要求される多くの従来のDfDアルゴリズムとは異なり、この関係は幅広いアパーチャ符号に対して普遍的であることが証明されている。
我々は、結合した光の微分から深度に基づいて、最初の3次元センサを構築する。
光学組立体は変形可能なレンズと電動アイリスを備えており、光学パワーと開口半径を動的に調整することができる。
センサは、光学パワーの差分変化の2対と、開口スケールの差分変化の2対の画像をキャプチャする。
4つの画像から,出力画素あたり36個の浮動小数点演算で深度と信頼度マップを生成できる。
さらに,提案したセンサにより生成された深度マップは,従来のDfD法の作業範囲を2倍以上に拡大し,計算量を大幅に削減した。
関連論文リスト
- Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Passive Snapshot Coded Aperture Dual-Pixel RGB-D Imaging [25.851398356458425]
単発3Dセンシングは、顕微鏡、医用画像、手術ナビゲーション、自律運転など、多くの応用分野において有用である。
画像レンズに符号化開口とDPセンサを併用したCADS(Coded Aperture Dual-Pixel Sensing)を提案する。
以上の結果から,ALF(All-in-focus)推定では1.5dBPSNRが改善し,DPセンシングでは5-6%の深さ推定精度が得られた。
論文 参考訳(メタデータ) (2024-02-28T06:45:47Z) - Depth Map Denoising Network and Lightweight Fusion Network for Enhanced
3D Face Recognition [61.27785140017464]
本稿では,ノイズを低減するために,DIIF(Denoising Implicit Image Function)に基づくDMDNet(Depth Map Denoising Network)を提案する。
さらに,光深度と標準核融合ネットワーク(LDNFNet)と呼ばれる強力な認識ネットワークを設計し,異なるモード間の特徴と相補的特徴を学習する。
論文 参考訳(メタデータ) (2024-01-01T10:46:42Z) - Phase Guided Light Field for Spatial-Depth High Resolution 3D Imaging [36.208109063579066]
3Dイメージングでは、光界カメラは通常単発で、空間解像度と深度精度の低下に悩まされる。
そこで本研究では,オフザシェルフ光場カメラの空間分解能と深度を両立させる位相誘導光場アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:08:15Z) - Non-learning Stereo-aided Depth Completion under Mis-projection via
Selective Stereo Matching [0.5067618621449753]
一対のステレオ画像で導かれる光検出・測度センサ(LiDAR)を用いて捉えたスパース深度マップの非学習深度補完法を提案する。
提案手法は, 平均絶対誤差(MAE)を0.65倍に減らし, 従来よりも約2倍の精度で推定できることを示した。
論文 参考訳(メタデータ) (2022-10-04T07:46:56Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Facial Depth and Normal Estimation using Single Dual-Pixel Camera [81.02680586859105]
DP指向のDepth/Normalネットワークを導入し,3次元顔形状を再構成する。
これは、メートル法スケールでの深度マップと表面正規を含む、対応する地上3次元モデルを含んでいる。
近年のDPベース深度/正規推定法で最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-11-25T05:59:27Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Single-shot Hyperspectral-Depth Imaging with Learned Diffractive Optics [72.9038524082252]
単発単眼単眼ハイパースペクトル(HS-D)イメージング法を提案する。
本手法では, 回折光学素子 (DOE) を用いる。
DOE の学習を容易にするため,ベンチトップ HS-D イメージラーを構築することで,最初の HS-D データセットを提案する。
論文 参考訳(メタデータ) (2020-09-01T14:19:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。