論文の概要: A Modular Pipeline for 3D Object Tracking Using RGB Cameras
- arxiv url: http://arxiv.org/abs/2503.04322v1
- Date: Thu, 06 Mar 2025 11:14:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:59:29.807193
- Title: A Modular Pipeline for 3D Object Tracking Using RGB Cameras
- Title(参考訳): RGBカメラを用いた3次元物体追跡のためのモジュールパイプライン
- Authors: Lars Bredereke, Yale Hartmann, Tanja Schultz,
- Abstract要約: 複数の物体の3次元軌跡を計算できる新しいモジュールパイプラインを提案する。
複数のタイム同期および静止カメラが動く物体を記録する様々な設定に適合する。
数百のテーブルセット試行にスケールするが、人間のアノテーション入力はほとんどない。
- 参考スコア(独自算出の注目度): 17.77519622617273
- License:
- Abstract: Object tracking is a key challenge of computer vision with various applications that all require different architectures. Most tracking systems have limitations such as constraining all movement to a 2D plane and they often track only one object. In this paper, we present a new modular pipeline that calculates 3D trajectories of multiple objects. It is adaptable to various settings where multiple time-synced and stationary cameras record moving objects, using off the shelf webcams. Our pipeline was tested on the Table Setting Dataset, where participants are recorded with various sensors as they set a table with tableware objects. We need to track these manipulated objects, using 6 rgb webcams. Challenges include: Detecting small objects in 9.874.699 camera frames, determining camera poses, discriminating between nearby and overlapping objects, temporary occlusions, and finally calculating a 3D trajectory using the right subset of an average of 11.12.456 pixel coordinates per 3-minute trial. We implement a robust pipeline that results in accurate trajectories with covariance of x,y,z-position as a confidence metric. It deals dynamically with appearing and disappearing objects, instantiating new Extended Kalman Filters. It scales to hundreds of table-setting trials with very little human annotation input, even with the camera poses of each trial unknown. The code is available at https://github.com/LarsBredereke/object_tracking
- Abstract(参考訳): オブジェクトトラッキングはコンピュータビジョンにおける重要な課題であり、様々なアプリケーションにおいて、それぞれ異なるアーキテクチャを必要とする。
ほとんどの追跡システムは、2次元平面への全ての動きを制限するような制限があり、しばしば1つの物体だけを追跡する。
本稿では,複数の物体の3次元軌道を計算するモジュールパイプラインを提案する。
複数のタイム同期および静止カメラが、棚のウェブカメラを使用して動くオブジェクトを記録する様々な設定に適応できる。
私たちのパイプラインはテーブル設定データセットでテストされ、参加者はテーブルウェアオブジェクトでテーブルを設定すると、さまざまなセンサーで記録されます。
6つのrgbウェブカメラを使って、これらの操作対象を追跡する必要があります。
9.874.699カメラフレームでの小さな物体の検出、カメラのポーズの決定、近接する物体と重なり合う物体の識別、一時的な閉塞、そして最終的に3分間のトライアルで平均11.12.456ピクセル座標の右サブセットを用いて3D軌道を計算する。
我々は、信頼度としてx,y,z-ポジションの共分散を伴う正確な軌道を導出する頑健なパイプラインを実装している。
オブジェクトの出現と消失を動的に処理し、新しい拡張カルマンフィルタをインスタンス化する。
試行のカメラのポーズが不明な場合でも、人間のアノテーション入力がほとんどないテーブルセットの試行に数百回までスケールする。
コードはhttps://github.com/LarsBredereke/object_trackingで入手できる。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - MUTR3D: A Multi-camera Tracking Framework via 3D-to-2D Queries [18.70932813595532]
複数のカメラからの3Dトラッキングは、ビジョンベースの自動運転システムにおいて重要な要素である。
我々はMUTR3Dと呼ばれるエンドツーエンドのtextbfMUlti-camera textbfTRackingフレームワークを提案する。
MUTR3Dは、オブジェクトの空間的および外観的類似性に明示的に依存していない。
nuScenesデータセット上で5.3 AMOTAによる最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-05-02T01:45:41Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Simultaneous Multi-View Camera Pose Estimation and Object Tracking with
Square Planar Markers [0.0]
本稿では,上記の問題を同時に解く新しい手法を提案する。
複数のカメラから記録された平面マーカーの厳密な集合を示すビデオシーケンスから,提案手法はマーカーの3次元構成を自動的に得ることができる。
パラメータが取得されると、オブジェクトの追跡は、低い計算コストでリアルタイムで行うことができます。
論文 参考訳(メタデータ) (2021-03-16T15:33:58Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。