論文の概要: Learnable Burst-Encodable Time-of-Flight Imaging for High-Fidelity Long-Distance Depth Sensing
- arxiv url: http://arxiv.org/abs/2505.22025v1
- Date: Wed, 28 May 2025 06:46:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.451349
- Title: Learnable Burst-Encodable Time-of-Flight Imaging for High-Fidelity Long-Distance Depth Sensing
- Title(参考訳): 高密度長距離深度センシングのためのバースト符号化型飛行時間イメージング
- Authors: Manchao Bao, Shengjiang Fang, Tao Yue, Xuemei Hu,
- Abstract要約: 長距離深度イメージングは、自律運転やロボティクスなどの応用に非常に有望である。
直接飛行時間(dToF)イメージングは高精度で長距離深度センサーを提供するが、超短パルス光源と高解像度の時間-デジタルコンバータを必要とする。
本稿では,高忠実・長距離深度イメージングを容易にする,Burst-Encodable Time-of-F(BE-ToF)と呼ばれる新しいToFイメージングパラダイムを提案する。
- 参考スコア(独自算出の注目度): 7.645012220983793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-distance depth imaging holds great promise for applications such as autonomous driving and robotics. Direct time-of-flight (dToF) imaging offers high-precision, long-distance depth sensing, yet demands ultra-short pulse light sources and high-resolution time-to-digital converters. In contrast, indirect time-of-flight (iToF) imaging often suffers from phase wrapping and low signal-to-noise ratio (SNR) as the sensing distance increases. In this paper, we introduce a novel ToF imaging paradigm, termed Burst-Encodable Time-of-Flight (BE-ToF), which facilitates high-fidelity, long-distance depth imaging. Specifically, the BE-ToF system emits light pulses in burst mode and estimates the phase delay of the reflected signal over the entire burst period, thereby effectively avoiding the phase wrapping inherent to conventional iToF systems. Moreover, to address the low SNR caused by light attenuation over increasing distances, we propose an end-to-end learnable framework that jointly optimizes the coding functions and the depth reconstruction network. A specialized double well function and first-order difference term are incorporated into the framework to ensure the hardware implementability of the coding functions. The proposed approach is rigorously validated through comprehensive simulations and real-world prototype experiments, demonstrating its effectiveness and practical applicability.
- Abstract(参考訳): 長距離深度イメージングは、自律運転やロボティクスなどの応用に非常に有望である。
直接飛行時間(dToF)イメージングは高精度で長距離深度センサーを提供するが、超短パルス光源と高解像度の時間-デジタルコンバータを必要とする。
対照的に、間接飛行時間(iToF)イメージングは、感知距離が増加するにつれて位相ラップングと低信号対雑音比(SNR)に悩まされることが多い。
本稿では,高忠実で長距離の深度イメージングを容易にする,Burst-Encodable Time-of-F(BE-ToF)と呼ばれる新しいToFイメージングパラダイムを提案する。
具体的には、BE-ToFシステムはバーストモードで光パルスを出力し、バースト期間全体にわたって反射信号の位相遅延を推定することにより、従来のiToFシステム固有の位相ラップを回避する。
さらに,距離の増大に伴う光減衰による低SNRに対応するために,符号化関数と深度復元ネットワークを協調的に最適化するエンドツーエンドの学習可能なフレームワークを提案する。
符号化関数のハードウェア実装性を確保するため、特殊二重井戸関数と一階差分項をフレームワークに組み込む。
提案手法は総合的なシミュレーションと実世界のプロトタイプ実験を通じて厳密に検証され,その有効性と実用性を示す。
関連論文リスト
- FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [63.87313550399871]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基礎モデルと潜在空間アライメントによるクロスモーダルな知識伝達を確立する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Multi-photon enhanced resolution for Superconducting Nanowire Single-Photon Detector-based Time-of-Flight lidar systems [0.0]
本稿では,導波管集積型SNSPDを用いたライダーシステムについて報告する。
単発計測では、低光子数に対して21$,$psの飛行時間信号のジッタが原因でミリモードの分解能が得られた。
マルチショット計測では、0.75$,$mmのサブミリレンジ精度を発見し、スキャン対象のさらなる表面情報を明らかにする。
論文 参考訳(メタデータ) (2025-03-19T15:47:16Z) - FoveaSPAD: Exploiting Depth Priors for Adaptive and Efficient Single-Photon 3D Imaging [7.350208716861244]
単一光子アバランシェダイオード(SPAD)は、極度感度や時間分解能などの多くの利点を提供する新興のイメージセンシング技術である。
本稿では,信号対雑音比(SNR)を向上し,計算とメモリ効率を向上させる新しいアルゴリズムとセンシングポリシーを提案する。
論文 参考訳(メタデータ) (2024-12-03T00:20:01Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - FCL-GAN: A Lightweight and Real-Time Baseline for Unsupervised Blind
Image Deblurring [72.43250555622254]
本稿では,周波数領域の競合損失制約型軽量サイクルGANと呼ばれる,軽量でリアルタイムな非教師付きBIDベースラインを提案する。
FCL-GANは、画像領域制限がなく、画像解像度制限がなく、SOTAより25倍軽く、SOTAより5倍高速である。
いくつかの画像データセットの実験では、性能、モデルサイズ、参照時間の観点からFCL-GANの有効性が示されている。
論文 参考訳(メタデータ) (2022-04-16T15:08:03Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - iToF2dToF: A Robust and Flexible Representation for Data-Driven
Time-of-Flight Imaging [26.17890136713725]
間接飛行時間(iToF)カメラは、有望な深度検出技術です。
マルチパス干渉(MPI)と低信号対雑音比(SNR)によって引き起こされるエラーが発生しやすい。
論文 参考訳(メタデータ) (2021-03-12T04:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。