論文の概要: Focal Split: Untethered Snapshot Depth from Differential Defocus
- arxiv url: http://arxiv.org/abs/2504.11202v1
- Date: Tue, 15 Apr 2025 14:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:06:04.347113
- Title: Focal Split: Untethered Snapshot Depth from Differential Defocus
- Title(参考訳): Focal Split: ディファレンシャルデフォーカスのスナップショットの深さ
- Authors: Junjie Luo, John Mamish, Alan Fu, Thomas Concannon, Josiah Hester, Emma Alexander, Qi Guo,
- Abstract要約: Focal Splitは、DfDD(Deep-from-differential-defocus)に基づくフル搭載パワーとコンピューティングを備えたハンドヘルド・スナップショットデプスカメラである。
その無彩色光学系は、同時にシーンの2つの差分非焦点画像を形成し、スナップショット内の2つの光センサーを用いて独立にキャプチャすることができる。
我々は,Raspberry Pi 5に接続されたハンドヘルドカスタムカメラシステムを備えたFocal Splitのプロトタイプを実時間データ処理のためにデモした。
- 参考スコア(独自算出の注目度): 2.983003704253734
- License:
- Abstract: We introduce Focal Split, a handheld, snapshot depth camera with fully onboard power and computing based on depth-from-differential-defocus (DfDD). Focal Split is passive, avoiding power consumption of light sources. Its achromatic optical system simultaneously forms two differentially defocused images of the scene, which can be independently captured using two photosensors in a snapshot. The data processing is based on the DfDD theory, which efficiently computes a depth and a confidence value for each pixel with only 500 floating point operations (FLOPs) per pixel from the camera measurements. We demonstrate a Focal Split prototype, which comprises a handheld custom camera system connected to a Raspberry Pi 5 for real-time data processing. The system consumes 4.9 W and is powered on a 5 V, 10,000 mAh battery. The prototype can measure objects with distances from 0.4 m to 1.2 m, outputting 480$\times$360 sparse depth maps at 2.1 frames per second (FPS) using unoptimized Python scripts. Focal Split is DIY friendly. A comprehensive guide to building your own Focal Split depth camera, code, and additional data can be found at https://focal-split.qiguo.org.
- Abstract(参考訳): 本稿では,DfDD(Deep-from-differential-defocus)に基づくフル搭載パワーと計算機能を備えたハンドヘルド・スナップショット・デプス・カメラであるFocal Splitを紹介する。
フォカルスプリットは受動的であり、光源の消費電力を避ける。
その無彩色光学系は、同時にシーンの2つの差分非焦点画像を形成し、スナップショット内の2つの光センサーを用いて独立にキャプチャすることができる。
データ処理はDfDD理論に基づいており、カメラ測定から各画素の深さと信頼値を効率よく算出し、1ピクセルあたりの浮動小数点演算(FLOP)はわずか500個である。
我々は,Raspberry Pi 5に接続されたハンドヘルドカスタムカメラシステムを備えたFocal Splitのプロトタイプを実時間データ処理のためにデモした。
このシステムは4.9Wを消費し、5V、10,000mAhのバッテリーを搭載している。
プロトタイプは0.4mから1.2mの距離のオブジェクトを計測でき、最適化されていないPythonスクリプトを使用して480$\times$360のスパース深度マップを毎秒2.1フレーム(FPS)で出力する。
Focal SplitはDIYフレンドリーだ。
Focal Splitの深度カメラ、コード、その他のデータを構築するための包括的なガイドはhttps://focal-split.qiguo.org.comにある。
関連論文リスト
- Depth Pro: Sharp Monocular Metric Depth in Less Than a Second [45.6690958201871]
ゼロショット距離単眼深度推定のための基礎モデルを提案する。
我々のモデルであるDepth Proは、非並列のシャープネスと高周波の詳細で高分解能深度マップを合成する。
標準GPUで0.3秒で2.25メガピクセルの深度マップを生成する。
論文 参考訳(メタデータ) (2024-10-02T22:42:20Z) - Passive Snapshot Coded Aperture Dual-Pixel RGB-D Imaging [25.851398356458425]
単発3Dセンシングは、顕微鏡、医用画像、手術ナビゲーション、自律運転など、多くの応用分野において有用である。
画像レンズに符号化開口とDPセンサを併用したCADS(Coded Aperture Dual-Pixel Sensing)を提案する。
以上の結果から,ALF(All-in-focus)推定では1.5dBPSNRが改善し,DPセンシングでは5-6%の深さ推定精度が得られた。
論文 参考訳(メタデータ) (2024-02-28T06:45:47Z) - Learning Dual-Pixel Alignment for Defocus Deblurring [73.80328094662976]
本稿では,デフォーカス除去のためのDPANet(Dual-Pixel Alignment Network)を提案する。
目に見える鋭い構造やテクスチャを回復しながら、デフォーカスのぼやけを減らし、最先端のデブロアリング法よりも優れている。
論文 参考訳(メタデータ) (2022-04-26T07:02:58Z) - Deep Depth from Focal Stack with Defocus Model for Camera-Setting
Invariance [19.460887007137607]
シーン深度を推定するための入力として焦点スタックを利用する,フォーカス/デフォーカス(DFF)からの学習に基づく深度を提案する。
提案手法は, 合成ドメインギャップに対して頑健であり, 最先端の性能を示す。
論文 参考訳(メタデータ) (2022-02-26T04:21:08Z) - Facial Depth and Normal Estimation using Single Dual-Pixel Camera [81.02680586859105]
DP指向のDepth/Normalネットワークを導入し,3次元顔形状を再構成する。
これは、メートル法スケールでの深度マップと表面正規を含む、対応する地上3次元モデルを含んでいる。
近年のDPベース深度/正規推定法で最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-11-25T05:59:27Z) - Improving Single-Image Defocus Deblurring: How Dual-Pixel Images Help
Through Multi-Task Learning [48.063176079878055]
本稿では,2つのサブアパーチャビューをマルチタスクフレームワークに組み込んだシングルイメージデブロアリングネットワークを提案する。
実験により, このマルチタスク戦略は, 最先端デフォーカスデブロリング法よりも+1dBPSNRの改善を達成できることが示された。
これらの高品質DPビューは、リフレクション除去など、他のDPベースのアプリケーションに使用することができる。
論文 参考訳(メタデータ) (2021-08-11T14:45:15Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Dual Pixel Exploration: Simultaneous Depth Estimation and Image
Restoration [77.1056200937214]
本研究では,ぼかしと深度情報をリンクするDPペアの形成について検討する。
本稿では,画像の深さを共同で推定し,復元するためのエンドツーエンドDDDNet(DPベースのDepth and De Network)を提案する。
論文 参考訳(メタデータ) (2020-12-01T06:53:57Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Defocus Deblurring Using Dual-Pixel Data [41.201653787083735]
デフォーカスのぼかしは、広い開口部の使用により被写界深度が浅い画像に現れる。
最新のカメラで検出されるデュアルピクセル(DP)センサで利用可能なデータを活用する,効果的なデフォーカスデブロリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-01T10:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。