論文の概要: SpecTrack: Learned Multi-Rotation Tracking via Speckle Imaging
- arxiv url: http://arxiv.org/abs/2410.06028v1
- Date: Tue, 8 Oct 2024 13:29:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 11:30:40.503786
- Title: SpecTrack: Learned Multi-Rotation Tracking via Speckle Imaging
- Title(参考訳): SpecTrack: スペックルイメージングによるマルチ回転追跡の学習
- Authors: Ziyang Chen, Mustafa Doğa Doğan, Josef Spjut, Kaan Akşit,
- Abstract要約: レーザースペックルイメージング(LSI)は、ポーズ推定精度を改善するための有望なポテンシャルを提供する。
提案するLSIベーストラッキング(SpecTrack)は,レンズレスカメラとレトロレフレクタマーカーを符号化開口で捕捉し,高精度な多軸回転ポーズ推定を実現する。
当社の社内ビルドテストベッドを使用した大規模な試験では、SpecTrackの精度は0.31degで、最先端のアプローチよりも大幅に向上し、精度は200%まで向上した。
- 参考スコア(独自算出の注目度): 7.048488981652353
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Precision pose detection is increasingly demanded in fields such as personal fabrication, Virtual Reality (VR), and robotics due to its critical role in ensuring accurate positioning information. However, conventional vision-based systems used in these systems often struggle with achieving high precision and accuracy, particularly when dealing with complex environments or fast-moving objects. To address these limitations, we investigate Laser Speckle Imaging (LSI), an emerging optical tracking method that offers promising potential for improving pose estimation accuracy. Specifically, our proposed LSI-Based Tracking (SpecTrack) leverages the captures from a lensless camera and a retro-reflector marker with a coded aperture to achieve multi-axis rotational pose estimation with high precision. Our extensive trials using our in-house built testbed have shown that SpecTrack achieves an accuracy of 0.31{\deg} (std=0.43{\deg}), significantly outperforming state-of-the-art approaches and improving accuracy up to 200%.
- Abstract(参考訳): 精密ポーズ検出は、正確な位置情報を確保する上で重要な役割を担っているため、パーソナルメイキング、バーチャルリアリティ(VR)、ロボット工学などの分野でますます求められている。
しかしながら、これらのシステムで使用される従来の視覚ベースのシステムは、特に複雑な環境や高速移動物体を扱う場合、高い精度と精度を達成するのに苦労することが多い。
これらの制約に対処するために、ポーズ推定精度を向上させるための有望なポテンシャルを提供する新しい光追跡法であるレーザースペックルイメージング(LSI)について検討する。
具体的には、レンズレスカメラとレトロレフレクタマーカーと符号化開口部を併用したLSIベースのトラッキング(SpecTrack)を用いて、高精度な多軸回転ポーズ推定を実現する。
社内で構築したテストベッドを用いた大規模な試験では、SpecTrackは0.31{\deg}(std=0.43{\deg})の精度を達成し、最先端のアプローチを著しく上回り、精度を最大200%向上することを示した。
関連論文リスト
- DELTA: Dense Efficient Long-range 3D Tracking for any video [82.26753323263009]
DELTAは3次元空間内のすべてのピクセルを効率よく追跡し,ビデオ全体の正確な動き推定を可能にする手法である。
提案手法では,低分解能追跡のためのグローバルアテンション機構と,高分解能予測を実現するためのトランスフォーマーベースアップサンプラーを併用する。
提案手法は,3次元空間における細粒度・長期動作追跡を必要とするアプリケーションに対して,ロバストなソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-31T17:59:01Z) - RETINA: a hardware-in-the-loop optical facility with reduced optical aberrations [0.0]
視覚に基づくナビゲーションアルゴリズムは、低コストで汎用的なセンサーで軌道上の宇宙船の状態を決定する効果的な解決策として自らを確立している。
実験室で軌道環境をエミュレートするために、専用のシミュレーションフレームワークを開発する必要がある。
本稿では,RETINAと呼ばれる低収差光学設備の設計について述べる。
論文 参考訳(メタデータ) (2024-07-02T11:26:37Z) - Toward Efficient Visual Gyroscopes: Spherical Moments, Harmonics Filtering, and Masking Techniques for Spherical Camera Applications [83.8743080143778]
視覚ジャイロスコープは、画像を通してカメラの回転を推定する。
従来のRGBカメラに比べて視野が広い全方位カメラの統合は、より正確で堅牢な結果をもたらすことが証明されている。
本稿では,効率的なマルチマスク・フィルタ回転エステータと学習に基づく最適化を組み合わせた,新しい視覚ジャイロスコープを導入することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2024-04-02T13:19:06Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - A Flexible-Frame-Rate Vision-Aided Inertial Object Tracking System for
Mobile Devices [3.4836209951879957]
本稿では,モバイルデバイス用フレキシブルフレームレートオブジェクトポーズ推定とトラッキングシステムを提案する。
高速トラッキングのためにクライアント側で慣性計測ユニット(IMU)ポーズ伝搬を行い、サーバ側でRGB画像ベースの3Dポーズ推定を行う。
我々のシステムは120FPSまでのフレキシブルフレームレートをサポートし、ローエンドデバイス上での高精度かつリアルタイムなトラッキングを保証する。
論文 参考訳(メタデータ) (2022-10-22T15:26:50Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - gDLS*: Generalized Pose-and-Scale Estimation Given Scale and Gravity
Priors [24.873863009025946]
gDLS* は、回転とスケール先行を利用する一般化されたカメラモデルポーズ・アンド・スケール推定器である。
合成データと実データの両方に関する実験は、gDLS*が推定過程を加速し、スケールを改善し、精度を向上させることを一貫して示している。
論文 参考訳(メタデータ) (2020-04-05T00:01:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。