論文の概要: Enhancing Generalizable 6D Pose Tracking of an In-Hand Object with
Tactile Sensing
- arxiv url: http://arxiv.org/abs/2210.04026v2
- Date: Sat, 23 Dec 2023 14:54:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-28 02:21:50.958471
- Title: Enhancing Generalizable 6D Pose Tracking of an In-Hand Object with
Tactile Sensing
- Title(参考訳): 触覚センシングによる手指物体の一般的な6次元ポーズ追跡の強化
- Authors: Yun Liu, Xiaomeng Xu, Weihang Chen, Haocheng Yuan, He Wang, Jing Xu,
Rui Chen, Li Yi
- Abstract要約: TEG-Trackは触覚による6Dポーズトラッキングシステムである。
手に持たない物体を追跡できる。
その結果,TEG-Trackは最先端の一般化可能な6Dポーズトラッカーを一貫して強化することを示した。
- 参考スコア(独自算出の注目度): 31.49529551069215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When manipulating an object to accomplish complex tasks, humans rely on both
vision and touch to keep track of the object's 6D pose. However, most existing
object pose tracking systems in robotics rely exclusively on visual signals,
which hinder a robot's ability to manipulate objects effectively. To address
this limitation, we introduce TEG-Track, a tactile-enhanced 6D pose tracking
system that can track previously unseen objects held in hand. From consecutive
tactile signals, TEG-Track optimizes object velocities from marker flows when
slippage does not occur, or regresses velocities using a slippage estimation
network when slippage is detected. The estimated object velocities are
integrated into a geometric-kinematic optimization scheme to enhance existing
visual pose trackers. To evaluate our method and to facilitate future research,
we construct a real-world dataset for visual-tactile in-hand object pose
tracking. Experimental results demonstrate that TEG-Track consistently enhances
state-of-the-art generalizable 6D pose trackers in synthetic and real-world
scenarios. Our code and dataset are available at
https://github.com/leolyliu/TEG-Track.
- Abstract(参考訳): 複雑なタスクを達成するために物体を操作するとき、人間は物体の6Dポーズを追跡するために視覚と触覚の両方に依存する。
しかし、ロボット工学における既存の物体ポーズ追跡システムは視覚信号のみに依存しており、ロボットが物体を効果的に操作する能力を妨げる。
この制限に対処するため,触覚を付加した6DポーズトラッキングシステムであるTEG-Trackを導入する。
連続した触覚信号から、TEG-Trackは、滑り込みが起こらない場合のマーカーフローからの物体速度を最適化する。
推定された物体速度は、既存の視覚的ポーズトラッカーを強化するために幾何学的運動最適化スキームに統合される。
本手法の評価と今後の研究を容易にするため,視覚触覚オブジェクトのポーズトラッキングのための実世界のデータセットを構築した。
実験により,TEG-Trackは,合成および実世界のシナリオにおいて,最先端の一般化可能な6Dポーズトラッカーを一貫して強化することを示した。
私たちのコードとデータセットはhttps://github.com/leolyliu/teg-trackで利用可能です。
関連論文リスト
- TrackAgent: 6D Object Tracking via Reinforcement Learning [24.621588217873395]
我々は、オブジェクト追跡を強化されたポイントクラウド(深部のみ)アライメントタスクに単純化することを提案する。
これにより、スクラッチからスクラッチからスパース3Dポイントクラウドをトレーニングすることができます。
また、RLエージェントの不確かさとレンダリングベースのマスク伝搬が効果的な再起動トリガであることを示す。
論文 参考訳(メタデータ) (2023-07-28T17:03:00Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - ROFT: Real-Time Optical Flow-Aided 6D Object Pose and Velocity Tracking [7.617467911329272]
RGB-D画像ストリームからの6次元オブジェクトポーズと速度追跡のためのカルマンフィルタ手法であるROFTを導入する。
リアルタイム光フローを活用することで、ROFTは低フレームレートの畳み込みニューラルネットワークの遅延出力をインスタンスセグメンテーションと6Dオブジェクトのポーズ推定に同期させる。
その結果,本手法は6次元オブジェクトのポーズトラッキングと6次元オブジェクトの速度トラッキングを併用しながら,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-06T07:30:00Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Seeing Behind Objects for 3D Multi-Object Tracking in RGB-D Sequences [46.65702220573459]
物体の完全な幾何学と追跡を推測し、時間とともに厳格に動く物体を追尾する。
RGB-Dフレームのシーケンスから、各フレーム内のオブジェクトを検出し、その完全なオブジェクト形状を予測することを学ぶ。
合成データと実世界のrgb-dデータの両方における実験により,動的物体追跡における最先端の性能が得られた。
論文 参考訳(メタデータ) (2020-12-15T10:33:21Z) - se(3)-TrackNet: Data-driven 6D Pose Tracking by Calibrating Image
Residuals in Synthetic Domains [12.71983073907091]
本研究では,長期6次元ポーズトラッキングのためのデータ駆動型最適化手法を提案する。
本研究の目的は、現在のRGB-D観測と、前回の推定値と対象物のモデルに基づいて条件付けされた合成画像から、最適な相対的なポーズを特定することである。
提案手法は, 実画像を用いて訓練した場合でも, 常に頑健な評価を達成し, 代替品よりも優れる。
論文 参考訳(メタデータ) (2020-07-27T21:09:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。