論文の概要: Enhancing Generalizable 6D Pose Tracking of an In-Hand Object with
Tactile Sensing
- arxiv url: http://arxiv.org/abs/2210.04026v1
- Date: Sat, 8 Oct 2022 13:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 19:07:04.995369
- Title: Enhancing Generalizable 6D Pose Tracking of an In-Hand Object with
Tactile Sensing
- Title(参考訳): 触覚センシングによる手指物体の一般的な6次元ポーズ追跡の強化
- Authors: Xiaomeng Xu, Yun Liu, Weihang Chen, Haocheng Yuan, He Wang, Jing Xu,
Rui Chen, Li Yi
- Abstract要約: この研究は、TEG-Trackという、触覚で拡張可能な一般的な6Dポーズトラッキング設計を提示した。
TEG-Trackは、連続した触覚センシング信号から手動物体の触覚的キューを抽出する。
実験により, TEG-Trackは, 合成と実の両方のケースにおいて, 最先端の一般化可能な6Dポーズトラッカーを著しく改善することが示された。
- 参考スコア(独自算出の注目度): 22.794291766510025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While holding and manipulating an object, humans track the object states
through vision and touch so as to achieve complex tasks. However, nowadays the
majority of robot research perceives object states just from visual signals,
hugely limiting the robotic manipulation abilities. This work presents a
tactile-enhanced generalizable 6D pose tracking design named TEG-Track to track
previously unseen in-hand objects. TEG-Track extracts tactile kinematic cues of
an in-hand object from consecutive tactile sensing signals. Such cues are
incorporated into a geometric-kinematic optimization scheme to enhance existing
generalizable visual trackers. To test our method in real scenarios and enable
future studies on generalizable visual-tactile tracking, we collect a real
visual-tactile in-hand object pose tracking dataset. Experiments show that
TEG-Track significantly improves state-of-the-art generalizable 6D pose
trackers in both synthetic and real cases.
- Abstract(参考訳): オブジェクトを保持し、操作しながら、人間はオブジェクトを視覚を通して追跡し、複雑なタスクを達成するためにタッチする。
しかし、現在ではロボット研究の大多数が視覚信号のみから物体の状態を認識しており、ロボット操作能力を大幅に制限している。
この研究は、以前に見つからなかった手動物体を追跡するために、TAG-Trackという触覚で拡張可能な6Dポーズトラッキング設計を提示した。
TEG-Trackは連続した触覚センシング信号から手動物体の触覚的キューを抽出する。
このようなヒントは、既存の一般化可能なビジュアルトラッカーを強化する幾何学的運動最適化スキームに組み込まれている。
本手法を実際のシナリオでテストし,汎用的な視覚触覚追跡に関する今後の研究を可能にするために,実際の視覚触覚物体ポーズ追跡データセットを収集する。
実験により, TEG-Trackは, 合成と実の両方で, 最先端の一般化可能な6Dポーズトラッカーを大幅に改善することが示された。
関連論文リスト
- TrackAgent: 6D Object Tracking via Reinforcement Learning [24.621588217873395]
我々は、オブジェクト追跡を強化されたポイントクラウド(深部のみ)アライメントタスクに単純化することを提案する。
これにより、スクラッチからスクラッチからスパース3Dポイントクラウドをトレーニングすることができます。
また、RLエージェントの不確かさとレンダリングベースのマスク伝搬が効果的な再起動トリガであることを示す。
論文 参考訳(メタデータ) (2023-07-28T17:03:00Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - ROFT: Real-Time Optical Flow-Aided 6D Object Pose and Velocity Tracking [7.617467911329272]
RGB-D画像ストリームからの6次元オブジェクトポーズと速度追跡のためのカルマンフィルタ手法であるROFTを導入する。
リアルタイム光フローを活用することで、ROFTは低フレームレートの畳み込みニューラルネットワークの遅延出力をインスタンスセグメンテーションと6Dオブジェクトのポーズ推定に同期させる。
その結果,本手法は6次元オブジェクトのポーズトラッキングと6次元オブジェクトの速度トラッキングを併用しながら,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-06T07:30:00Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Seeing Behind Objects for 3D Multi-Object Tracking in RGB-D Sequences [46.65702220573459]
物体の完全な幾何学と追跡を推測し、時間とともに厳格に動く物体を追尾する。
RGB-Dフレームのシーケンスから、各フレーム内のオブジェクトを検出し、その完全なオブジェクト形状を予測することを学ぶ。
合成データと実世界のrgb-dデータの両方における実験により,動的物体追跡における最先端の性能が得られた。
論文 参考訳(メタデータ) (2020-12-15T10:33:21Z) - se(3)-TrackNet: Data-driven 6D Pose Tracking by Calibrating Image
Residuals in Synthetic Domains [12.71983073907091]
本研究では,長期6次元ポーズトラッキングのためのデータ駆動型最適化手法を提案する。
本研究の目的は、現在のRGB-D観測と、前回の推定値と対象物のモデルに基づいて条件付けされた合成画像から、最適な相対的なポーズを特定することである。
提案手法は, 実画像を用いて訓練した場合でも, 常に頑健な評価を達成し, 代替品よりも優れる。
論文 参考訳(メタデータ) (2020-07-27T21:09:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。