論文の概要: Recovering Parametric Scenes from Very Few Time-of-Flight Pixels
- arxiv url: http://arxiv.org/abs/2509.16132v1
- Date: Fri, 19 Sep 2025 16:31:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.245116
- Title: Recovering Parametric Scenes from Very Few Time-of-Flight Pixels
- Title(参考訳): ごくわずかな飛行時間からパラメトリックなシーンを復元する
- Authors: Carter Sifferman, Yiquan Li, Yiming Li, Fangzhou Mu, Michael Gleicher, Mohit Gupta, Yin Li,
- Abstract要約: 本研究の目的は,低コストで市販の飛行時間センサによる深度測定を用いて,3次元パラメトリックシーンの形状を復元することである。
これらのセンサーは非常に低い空間分解能(すなわち1ピクセル)を提供するが、1ピクセルあたりの視野を広く撮影し、時間分解光子数という形で詳細な飛行時間データをキャプチャする。
- 参考スコア(独自算出の注目度): 29.121566846976922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We aim to recover the geometry of 3D parametric scenes using very few depth measurements from low-cost, commercially available time-of-flight sensors. These sensors offer very low spatial resolution (i.e., a single pixel), but image a wide field-of-view per pixel and capture detailed time-of-flight data in the form of time-resolved photon counts. This time-of-flight data encodes rich scene information and thus enables recovery of simple scenes from sparse measurements. We investigate the feasibility of using a distributed set of few measurements (e.g., as few as 15 pixels) to recover the geometry of simple parametric scenes with a strong prior, such as estimating the 6D pose of a known object. To achieve this, we design a method that utilizes both feed-forward prediction to infer scene parameters, and differentiable rendering within an analysis-by-synthesis framework to refine the scene parameter estimate. We develop hardware prototypes and demonstrate that our method effectively recovers object pose given an untextured 3D model in both simulations and controlled real-world captures, and show promising initial results for other parametric scenes. We additionally conduct experiments to explore the limits and capabilities of our imaging solution.
- Abstract(参考訳): 本研究の目的は,低コストで市販の飛行時間センサによる深度測定を用いて,3次元パラメトリックシーンの形状を復元することである。
これらのセンサーは非常に低い空間分解能(すなわち1ピクセル)を提供するが、1ピクセルあたりの視野を拡大し、時間分解光子数という形で詳細な飛行時間データをキャプチャする。
このタイム・オブ・フライデータは、リッチなシーン情報を符号化し、スパース測定による単純なシーンの復元を可能にする。
本研究では, 既知物体の6次元ポーズを推定するなど, 単純なパラメトリックシーンの幾何を, より強い事前で再現するために, 少数の測定値(例: 15 ピクセル)を分散して用いる可能性について検討する。
そこで本研究では,シーンパラメータを推定するためのフィードフォワード予測と,シーンパラメータ推定を洗練するための分析・バイ・シンセサイザー・フレームワーク内での微分可能なレンダリングの両方を利用する手法を設計する。
ハードウェアのプロトタイプを開発し,シミュレーションと実空間キャプチャの両面において非テクスチャな3次元モデルを用いてオブジェクトのポーズを効果的に復元し,他のパラメトリックシーンに対して有望な初期結果を示す。
また、イメージングソリューションの限界と能力を探求する実験も行います。
関連論文リスト
- Transientangelo: Few-Viewpoint Surface Reconstruction Using Single-Photon Lidar [8.464054039931245]
ライダーは、ターゲットに光のパルスを放出し、反射光の光速遅延を記録することで、3Dシーンの幾何学を捉えている。
従来のライダーシステムは、後方散乱光の生で捕獲された波形を出力しない。
我々は,光子ノイズに対するロバスト性を向上させる新しい正則化戦略を開発し,画素あたり10光子程度で正確な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-08-22T08:12:09Z) - Towards 3D Vision with Low-Cost Single-Photon Cameras [24.711165102559438]
小型で省エネで低コストな単光子カメラによる計測に基づいて,任意のランベルト物体の3次元形状を再構成する手法を提案する。
我々の研究は、画像ベースモデリングとアクティブレンジスキャンの関連性を引き合いに出し、単光子カメラによる3Dビジョンに向けた一歩である。
論文 参考訳(メタデータ) (2024-03-26T15:40:05Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。