論文の概要: TrackAgent: 6D Object Tracking via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2307.15671v1
- Date: Fri, 28 Jul 2023 17:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 12:06:02.309086
- Title: TrackAgent: 6D Object Tracking via Reinforcement Learning
- Title(参考訳): trackagent:強化学習による6dオブジェクト追跡
- Authors: Konstantin R\"ohrl, Dominik Bauer, Timothy Patten, and Markus Vincze
- Abstract要約: 我々は、オブジェクト追跡を強化されたポイントクラウド(深部のみ)アライメントタスクに単純化することを提案する。
これにより、スクラッチからスクラッチからスパース3Dポイントクラウドをトレーニングすることができます。
また、RLエージェントの不確かさとレンダリングベースのマスク伝搬が効果的な再起動トリガであることを示す。
- 参考スコア(独自算出の注目度): 24.621588217873395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking an object's 6D pose, while either the object itself or the observing
camera is moving, is important for many robotics and augmented reality
applications. While exploiting temporal priors eases this problem,
object-specific knowledge is required to recover when tracking is lost. Under
the tight time constraints of the tracking task, RGB(D)-based methods are often
conceptionally complex or rely on heuristic motion models. In comparison, we
propose to simplify object tracking to a reinforced point cloud (depth only)
alignment task. This allows us to train a streamlined approach from scratch
with limited amounts of sparse 3D point clouds, compared to the large datasets
of diverse RGBD sequences required in previous works. We incorporate temporal
frame-to-frame registration with object-based recovery by frame-to-model
refinement using a reinforcement learning (RL) agent that jointly solves for
both objectives. We also show that the RL agent's uncertainty and a
rendering-based mask propagation are effective reinitialization triggers.
- Abstract(参考訳): オブジェクトの6Dポーズを追跡することは、オブジェクト自体や監視カメラが動いている一方で、多くのロボティクスや拡張現実アプリケーションにとって重要である。
時間的事前の活用はこの問題を緩和するが、トラッキングが失われるとオブジェクト固有の知識が回復する必要がある。
追跡タスクの厳密な時間制約の下では、RGB(D)ベースの手法はしばしば概念的に複雑であり、ヒューリスティックな運動モデルに依存している。
比較として,強化ポイントクラウド(奥行きのみ)アライメントタスクに対するオブジェクト追跡の簡略化を提案する。
これにより、以前の作業で必要とされる多様なRGBDシーケンスの大きなデータセットと比較して、スクラッチからスパース3Dポイントクラウドで合理化されたアプローチをトレーニングすることができます。
両目的を共同で解決する強化学習(RL)エージェントを用いて,フレーム・ツー・モデル改良による時間的フレーム・ツー・フレーム登録とオブジェクトベースリカバリを組み込んだ。
また,rlエージェントの不確実性とレンダリングベースマスクの伝播が効果的な再活性化トリガーであることを示す。
関連論文リスト
- SuperPose: Improved 6D Pose Estimation with Robust Tracking and Mask-Free Initialization [5.298176595324931]
我々は,FoundationPose,SAM2,LightGlueを統合することで,産業アプリケーションにおけるリアルタイム6Dオブジェクト検出のための堅牢なソリューションを開発した。
アルゴリズムはターゲットオブジェクトのCADモデルのみを必要とし、ユーザは初期設定中にライブフィードの場所をクリックします。
YCBデータセットと漂白機やギアなどの産業用部品でテストされ、アルゴリズムは信頼性の高い6D検出と追跡を実証した。
論文 参考訳(メタデータ) (2024-09-30T06:26:49Z) - Spatio-Temporal Bi-directional Cross-frame Memory for Distractor Filtering Point Cloud Single Object Tracking [2.487142846438629]
LIDARポイント内の1つのオブジェクトトラッキングは、コンピュータビジョンにおける重要なタスクである。
既存の手法は、ネットワーク経由の外観マッチングのみに依存するか、連続したフレームからの情報を利用するが、重大な課題に遭遇する。
我々は、これらの課題を緩和するために、STMD-Trackerという、革新的なクロスフレームバイテンポラルモーショントラッカーを設計する。
論文 参考訳(メタデータ) (2024-03-23T13:15:44Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - 3D-FCT: Simultaneous 3D Object Detection and Tracking Using Feature
Correlation [0.0]
3D-FCTは、時間情報を利用して3Dオブジェクトの検出と追跡の関連タスクを同時に実行するシームズネットワークアーキテクチャである。
提案手法は,最先端手法よりも5.57%mAPの改善が期待できるKITTI追跡データセットを用いて評価した。
論文 参考訳(メタデータ) (2021-10-06T06:36:29Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Tracking from Patterns: Learning Corresponding Patterns in Point Clouds
for 3D Object Tracking [34.40019455462043]
本稿では,時間点雲データから3次元オブジェクト対応を学習し,対応パターンから動き情報を推測する。
提案手法は,KITTIと大規模Nuscenesデータセットの双方において,既存の3次元追跡手法を超えている。
論文 参考訳(メタデータ) (2020-10-20T06:07:20Z) - How to track your dragon: A Multi-Attentional Framework for real-time
RGB-D 6-DOF Object Pose Tracking [35.21561169636035]
本稿では,リアルタイムRGB-D 6Dオブジェクトのポーズトラッキング問題に対処するために,新しい多目的畳み込みアーキテクチャを提案する。
物体の3次元モデルとポーズ空間の両方の特別な幾何学的性質を考察し、トレーニング中のデータ拡張により洗練されたアプローチを用いる。
論文 参考訳(メタデータ) (2020-04-21T23:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。