論文の概要: EXOT: Exit-aware Object Tracker for Safe Robotic Manipulation of Moving
Object
- arxiv url: http://arxiv.org/abs/2306.05262v1
- Date: Thu, 8 Jun 2023 15:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 13:46:07.266932
- Title: EXOT: Exit-aware Object Tracker for Safe Robotic Manipulation of Moving
Object
- Title(参考訳): EXOT:移動物体の安全なロボット操作のためのエクイット認識オブジェクトトラッカー
- Authors: Hyunseo Kim, Hye Jung Yoon, Minji Kim, Dong-Sig Han, and Byoung-Tak
Zhang
- Abstract要約: 操作中の物体の欠如を認識するロボットハンドカメラにEXOT(Exit-Aware Object Tracker)を提案する。
ロボットは、対象物を含むトラッカーのバウンディングボックス出力を調べて進むか否かを判定する。
トラッカーはベースライン法よりも38%高いエグジット認識性能を示した。
- 参考スコア(独自算出の注目度): 18.17924341716236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current robotic hand manipulation narrowly operates with objects in
predictable positions in limited environments. Thus, when the location of the
target object deviates severely from the expected location, a robot sometimes
responds in an unexpected way, especially when it operates with a human. For
safe robot operation, we propose the EXit-aware Object Tracker (EXOT) on a
robot hand camera that recognizes an object's absence during manipulation. The
robot decides whether to proceed by examining the tracker's bounding box output
containing the target object. We adopt an out-of-distribution classifier for
more accurate object recognition since trackers can mistrack a background as a
target object. To the best of our knowledge, our method is the first approach
of applying an out-of-distribution classification technique to a tracker
output. We evaluate our method on the first-person video benchmark dataset,
TREK-150, and on the custom dataset, RMOT-223, that we collect from the UR5e
robot. Then we test our tracker on the UR5e robot in real-time with a
conveyor-belt sushi task, to examine the tracker's ability to track target
dishes and to determine the exit status. Our tracker shows 38% higher
exit-aware performance than a baseline method. The dataset and the code will be
released at https://github.com/hskAlena/EXOT.
- Abstract(参考訳): 現在のロボットハンド操作は、限られた環境で予測可能な位置にあるオブジェクトを狭く操作する。
したがって、対象物の位置が期待位置から著しくずれると、ロボットは、特に人間と操作した場合、予期せぬ方法で応答することがある。
安全なロボット操作のために,操作中の物体の欠如を認識するロボットハンドカメラにEXOT(Exit-aware Object Tracker)を提案する。
ロボットは、対象物を含むトラッカーのバウンディングボックス出力を調べて進むか否かを判定する。
トラッカーが対象対象物として背景を誤追跡できるため,より正確な物体認識のために分布外分類器を採用する。
我々の知識を最大限に活用するため,本手法はトラッカ出力に分散分類手法を適用した最初の手法である。
UR5eロボットから収集した1人称ビデオベンチマークデータセットであるTREK-150と、カスタムデータセットであるRMOT-223について評価を行った。
次に, コンベアベルト寿司タスクを用いて, ur5eロボットのトラッカをリアルタイムにテストし, 対象料理を追跡するトラッカの能力を調べ, 出口状態の判定を行う。
トラッカーはベースライン法よりも38%高い出口認識性能を示した。
データセットとコードはhttps://github.com/hskAlena/EXOTでリリースされる。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Planning Robot Placement for Object Grasping [5.327052729563043]
物体の摘み取りなどの操作に基づく活動を行う場合、移動ロボットは、実行を成功させる位置で基地を位置決めする必要がある。
この問題に対処するために、顕著なアプローチは、通常、対象のオブジェクトに対する把握ポーズを提供するために、プランナーを高価に把握することに依存する。
そこで我々は,まず環境との衝突を起こさないロボット配置を見つけ,次に最適な配置候補を見出すよう評価する。
論文 参考訳(メタデータ) (2024-05-26T20:57:32Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Robot Person Following in Uniform Crowd Environment [13.708992331117281]
人追跡ロボットには、セキュリティ、高齢者介護、社交ロボットなど、多くの応用がある。
本研究では,ロバストでリアルタイムなオブジェクトトラッカーを開発することにより,タスク追従者のロボットの知覚能力の向上に焦点をあてる。
我々は,新しいRGB-Dトラッカーを備えた新しいロボット人追跡システムであるDep Tracking with RGB-D (DTRD)を提案する。
論文 参考訳(メタデータ) (2022-05-21T10:20:14Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - A System for Traded Control Teleoperation of Manipulation Tasks using
Intent Prediction from Hand Gestures [20.120263332724438]
本稿では,ロボットの知覚と手の動きからの意図予測を含む遠隔操作システムを提案する。
知覚モジュールは、ロボットワークスペースに存在するオブジェクトと、ユーザが把握したいと思われるオブジェクトの意図予測モジュールを識別する。
論文 参考訳(メタデータ) (2021-07-05T07:37:17Z) - Object-Independent Human-to-Robot Handovers using Real Time Robotic
Vision [6.089651609511804]
本稿では,ロボットビジョンと操作を用いた安全でオブジェクトに依存しないロボットハンドオーバのアプローチを提案する。
13の物体を用いた実験で、このロボットは81.9%の試験で人間から物体を取り出すことに成功した。
論文 参考訳(メタデータ) (2020-06-02T17:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。