論文の概要: SDF-based RGB-D Camera Tracking in Neural Scene Representations
- arxiv url: http://arxiv.org/abs/2205.02079v1
- Date: Wed, 4 May 2022 14:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 15:10:15.122087
- Title: SDF-based RGB-D Camera Tracking in Neural Scene Representations
- Title(参考訳): ニューラルシーン表現におけるSDFに基づくRGB-Dカメラ追跡
- Authors: Leonard Bruns, Fereidoon Zangeneh, Patric Jensfelt
- Abstract要約: 動作中のRGB-Dカメラの6次元ポーズをニューラルシーン表現で追跡する問題を考察する。
特に,符号付き距離場ベース表現を用いたRGB-Dカメラの追跡を提案する。
- 参考スコア(独自算出の注目度): 4.83420384410068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of tracking the 6D pose of a moving RGB-D camera in a
neural scene representation. Different such representations have recently
emerged, and we investigate the suitability of them for the task of camera
tracking. In particular, we propose to track an RGB-D camera using a signed
distance field-based representation and show that compared to density-based
representations, tracking can be sped up, which enables more robust and
accurate pose estimates when computation time is limited.
- Abstract(参考訳): 動作中のRGB-Dカメラの6Dポーズをニューラルシーン表現で追跡する問題を考察する。
このような表現が最近出現し,カメラトラッキングの課題に対するそれらの適合性を検討した。
特に, 符号付き距離場ベース表現を用いたRGB-Dカメラの追跡を提案し, 密度ベース表現と比較して, トラッキングが高速化され, 計算時間制限時のより堅牢で正確なポーズ推定が可能となることを示す。
関連論文リスト
- Depth Attention for Robust RGB Tracking [21.897255266278275]
本稿では,RGBビデオシーケンスにおける動きのぼかしの影響や視界外なターゲット追跡の課題に対処するために,単眼深度推定を利用した新しいフレームワークを提案する。
我々の知識を最大限に活用するために、我々は最初に深度注意機構を提案し、深度情報と美術追跡アルゴリズムの状態をシームレスに統合するシンプルなフレームワークを定式化した。
論文 参考訳(メタデータ) (2024-10-27T09:47:47Z) - CRSOT: Cross-Resolution Object Tracking using Unaligned Frame and Event
Cameras [43.699819213559515]
既存のRGB-DVSトラッキング用のデータセットは、DVS346カメラで収集される。
我々は、特別に構築されたデータ取得システムを用いて収集された、最初の不整合フレームイベントデータセットCRSOTを構築した。
ゆるやかなRGBイベントデータを用いても、ロバストなトラッキングを実現することのできる、新しい非整列オブジェクト追跡フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T14:20:22Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - ARKitTrack: A New Diverse Dataset for Tracking Using Mobile RGB-D Data [75.73063721067608]
我々は,AppleのiPhoneおよびiPadに搭載されたコンシューマグレードのLiDARスキャナーによってキャプチャされた静的および動的シーンの両方を対象とした新しいRGB-D追跡データセットを提案する。
ARKitTrackには300のRGB-Dシーケンス、455のターゲット、229.7Kのビデオフレームが含まれている。
詳細な実験分析により,ARKitTrackデータセットがRGB-D追跡を著しく促進し,提案手法が芸術的状況と良好に比較できることが確認された。
論文 参考訳(メタデータ) (2023-03-24T09:51:13Z) - Virtually increasing the measurement frequency of LIDAR sensor utilizing
a single RGB camera [1.3706331473063877]
本研究は、モノカメラを用いてLIDARのフレームレートを実質的に向上させることを示唆している。
実測値と精度および類似性の観点から,大規模な公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-10T11:43:35Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - RGBD Object Tracking: An In-depth Review [89.96221353160831]
まず、RGBD融合、深度利用、追跡フレームワークなど、さまざまな視点からRGBDオブジェクトトラッカーをレビューする。
我々はRGBDトラッカーの代表セットをベンチマークし、その性能に基づいて詳細な分析を行う。
論文 参考訳(メタデータ) (2022-03-26T18:53:51Z) - Visual Object Tracking on Multi-modal RGB-D Videos: A Review [16.098468526632473]
本研究の目的は,RGB-D追跡研究の相対的知識を要約することである。
具体的には、関連するRGB-D追跡ベンチマークデータセットと、対応するパフォーマンス測定を一般化する。
論文 参考訳(メタデータ) (2022-01-23T08:02:49Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z) - Real-time RGBD-based Extended Body Pose Estimation [57.61868412206493]
3DヒトポーズのリアルタイムRGBDに基づく推定システムを提案する。
パラメトリック3次元変形可能なヒューマンメッシュモデル(SMPL-X)を表現として使用する。
身体のポーズと表情パラメータの推定子を訓練する。
論文 参考訳(メタデータ) (2021-03-05T13:37:50Z) - RGB-D-E: Event Camera Calibration for Fast 6-DOF Object Tracking [16.06615504110132]
6自由度で3次元物体追跡を高速化するために,イベントベースカメラを提案する。
このアプリケーションは、魅力的なAR体験を伝えるために、非常に高いオブジェクトスピードを扱う必要がある。
我々は,既存のRGB-Dネットワークと新しいイベントベースネットワークをカスケード方式で組み合わせたディープラーニングアプローチを開発した。
論文 参考訳(メタデータ) (2020-06-09T01:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。