論文の概要: SpiderCam: Low-Power Snapshot Depth from Differential Defocus
- arxiv url: http://arxiv.org/abs/2603.17910v1
- Date: Wed, 18 Mar 2026 16:48:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.827639
- Title: SpiderCam: Low-Power Snapshot Depth from Differential Defocus
- Title(参考訳): ディファレンシャルデフォーカスの低消費電力スナップショット深度カメラ「SpiderCam」
- Authors: Marcos A. Ferreira, Tianao Li, John Mamish, Josiah Hester, Yaman Sangar, Qi Guo, Emma Alexander,
- Abstract要約: SpiderCamは、52cmの作業範囲で32.5FPSで480x400のスパース深度マップをリアルタイムで作成し、合計624mWの電力を消費する。
SpiderCamは、同じシーンの異なる2つの画像を同時にキャプチャするカスタムカメラで構成されている。
- 参考スコア(独自算出の注目度): 5.310771660596241
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce SpiderCam, an FPGA-based snapshot depth-from-defocus camera which produces 480x400 sparse depth maps in real-time at 32.5 FPS over a working range of 52 cm while consuming 624 mW of power in total. SpiderCam comprises a custom camera that simultaneously captures two differently focused images of the same scene, processed with a SystemVerilog implementation of depth from differential defocus (DfDD) on a low-power FPGA. To achieve state-of-the-art power consumption, we present algorithmic improvements to DfDD that overcome challenges caused by low-power sensors, and design a memory-local implementation for streaming depth computation on a device that is too small to store even a single image pair. We report the first sub-Watt total power measurement for passive FPGA-based 3D cameras in the literature.
- Abstract(参考訳): このカメラは、52cmの作業範囲で480x400のスパース深度マップを32.5FPSでリアルタイムで生成し、合計624mWの電力を消費する。
SpiderCamは、同じシーンの2つの異なる焦点を同時に捉え、低消費電力FPGA上の差動デフォーカス(DfDD)からの深さのSystemVerilog実装で処理するカスタムカメラで構成されている。
最先端の電力消費を実現するため,低消費電力センサによる課題を克服するDfDDをアルゴリズム的に改良し,単一の画像ペアを格納するには小さすぎるデバイス上でのストリーミング深度計算のためのメモリローカル実装を設計する。
本報告では,順応型FPGAベースの3Dカメラにおける第1次サブワット全電力計測について報告する。
関連論文リスト
- Focal Split: Untethered Snapshot Depth from Differential Defocus [2.983003704253734]
Focal Splitは、DfDD(Deep-from-differential-defocus)に基づくフル搭載パワーとコンピューティングを備えたハンドヘルド・スナップショットデプスカメラである。
その無彩色光学系は、同時にシーンの2つの差分非焦点画像を形成し、スナップショット内の2つの光センサーを用いて独立にキャプチャすることができる。
我々は,Raspberry Pi 5に接続されたハンドヘルドカスタムカメラシステムを備えたFocal Splitのプロトタイプを実時間データ処理のためにデモした。
論文 参考訳(メタデータ) (2025-04-15T14:01:36Z) - Passive Snapshot Coded Aperture Dual-Pixel RGB-D Imaging [25.851398356458425]
単発3Dセンシングは、顕微鏡、医用画像、手術ナビゲーション、自律運転など、多くの応用分野において有用である。
画像レンズに符号化開口とDPセンサを併用したCADS(Coded Aperture Dual-Pixel Sensing)を提案する。
以上の結果から,ALF(All-in-focus)推定では1.5dBPSNRが改善し,DPセンシングでは5-6%の深さ推定精度が得られた。
論文 参考訳(メタデータ) (2024-02-28T06:45:47Z) - AutoDepthNet: High Frame Rate Depth Map Reconstruction using Commodity
Depth and RGB Cameras [7.711080558364457]
本稿では,遅延を低減し,奥行きカメラのフレームレートを向上させるために,高速かつ高精度な深度マップ再構成手法を提案する。
私たちのアプローチでは、ハイブリッドカメラのセットアップでは、コモディティデプスカメラとカラーカメラのみを使用します。
提案するネットワークであるAutoDepthNetは、高速RGBカメラからフレームをキャプチャし、それらを以前の深度フレームと組み合わせて高フレームレート深度マップのストリームを再構築するエンコーダデコーダモデルである。
論文 参考訳(メタデータ) (2023-05-24T05:09:43Z) - Event-guided Multi-patch Network with Self-supervision for Non-uniform
Motion Deblurring [113.96237446327795]
本稿では,ぼやけた画像やビデオを扱うための,イベント誘導型深層階層型マルチパッチネットワークを提案する。
また、ビデオ内の複雑なぼやけに対処するために、動画に含まれる動きの手がかりを利用するイベント誘導アーキテクチャを提案する。
我々のMPNは、現在のマルチスケール手法に比べて40倍高速なランタイムでGoProとVideoDeblurringデータセットの最先端を達成しています。
論文 参考訳(メタデータ) (2023-02-14T15:58:00Z) - Efficient Single-Image Depth Estimation on Mobile Devices, Mobile AI &
AIM 2022 Challenge: Report [108.88637766066759]
ディープラーニングベースの単一画像深度推定ソリューションは、IoTプラットフォームとスマートフォン上でリアルタイムのパフォーマンスを示すことができる。
このチャレンジで開発されたモデルは、AndroidやLinuxベースのモバイルデバイスとも互換性がある。
論文 参考訳(メタデータ) (2022-11-07T22:20:07Z) - NeuriCam: Key-Frame Video Super-Resolution and Colorization for IoT
Cameras [6.6445857362127665]
我々は,低消費電力デュアルモードIoTカメラシステムによるビデオキャプチャを実現するための,新しいディープラーニングベースのシステムであるNeuriCamを提案する。
提案手法は,既存システムに比べてエネルギー消費量を7倍に削減できることを示す。
論文 参考訳(メタデータ) (2022-07-25T19:54:57Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - Facial Depth and Normal Estimation using Single Dual-Pixel Camera [81.02680586859105]
DP指向のDepth/Normalネットワークを導入し,3次元顔形状を再構成する。
これは、メートル法スケールでの深度マップと表面正規を含む、対応する地上3次元モデルを含んでいる。
近年のDPベース深度/正規推定法で最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-11-25T05:59:27Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。