論文の概要: EXOT: Exit-aware Object Tracker for Safe Robotic Manipulation of Moving
Object
- arxiv url: http://arxiv.org/abs/2306.05262v1
- Date: Thu, 8 Jun 2023 15:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 13:46:07.266932
- Title: EXOT: Exit-aware Object Tracker for Safe Robotic Manipulation of Moving
Object
- Title(参考訳): EXOT:移動物体の安全なロボット操作のためのエクイット認識オブジェクトトラッカー
- Authors: Hyunseo Kim, Hye Jung Yoon, Minji Kim, Dong-Sig Han, and Byoung-Tak
Zhang
- Abstract要約: 操作中の物体の欠如を認識するロボットハンドカメラにEXOT(Exit-Aware Object Tracker)を提案する。
ロボットは、対象物を含むトラッカーのバウンディングボックス出力を調べて進むか否かを判定する。
トラッカーはベースライン法よりも38%高いエグジット認識性能を示した。
- 参考スコア(独自算出の注目度): 18.17924341716236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current robotic hand manipulation narrowly operates with objects in
predictable positions in limited environments. Thus, when the location of the
target object deviates severely from the expected location, a robot sometimes
responds in an unexpected way, especially when it operates with a human. For
safe robot operation, we propose the EXit-aware Object Tracker (EXOT) on a
robot hand camera that recognizes an object's absence during manipulation. The
robot decides whether to proceed by examining the tracker's bounding box output
containing the target object. We adopt an out-of-distribution classifier for
more accurate object recognition since trackers can mistrack a background as a
target object. To the best of our knowledge, our method is the first approach
of applying an out-of-distribution classification technique to a tracker
output. We evaluate our method on the first-person video benchmark dataset,
TREK-150, and on the custom dataset, RMOT-223, that we collect from the UR5e
robot. Then we test our tracker on the UR5e robot in real-time with a
conveyor-belt sushi task, to examine the tracker's ability to track target
dishes and to determine the exit status. Our tracker shows 38% higher
exit-aware performance than a baseline method. The dataset and the code will be
released at https://github.com/hskAlena/EXOT.
- Abstract(参考訳): 現在のロボットハンド操作は、限られた環境で予測可能な位置にあるオブジェクトを狭く操作する。
したがって、対象物の位置が期待位置から著しくずれると、ロボットは、特に人間と操作した場合、予期せぬ方法で応答することがある。
安全なロボット操作のために,操作中の物体の欠如を認識するロボットハンドカメラにEXOT(Exit-aware Object Tracker)を提案する。
ロボットは、対象物を含むトラッカーのバウンディングボックス出力を調べて進むか否かを判定する。
トラッカーが対象対象物として背景を誤追跡できるため,より正確な物体認識のために分布外分類器を採用する。
我々の知識を最大限に活用するため,本手法はトラッカ出力に分散分類手法を適用した最初の手法である。
UR5eロボットから収集した1人称ビデオベンチマークデータセットであるTREK-150と、カスタムデータセットであるRMOT-223について評価を行った。
次に, コンベアベルト寿司タスクを用いて, ur5eロボットのトラッカをリアルタイムにテストし, 対象料理を追跡するトラッカの能力を調べ, 出口状態の判定を行う。
トラッカーはベースライン法よりも38%高い出口認識性能を示した。
データセットとコードはhttps://github.com/hskAlena/EXOTでリリースされる。
関連論文リスト
- Track2Act: Predicting Point Tracks from Internet Videos enables Diverse Zero-shot Robot Manipulation [65.46610405509338]
Track2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
これらの2次元トラック予測を用いて、操作対象の剛体変換列を推定し、ロボットのエンドエフェクタのポーズを得る。
学習したトラック予測を残留ポリシーと組み合わせることで、ゼロショットロボットの操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
ロボットに新しいスキルを迅速かつ便利に教えることは、ロボットシステムの普及に不可欠である。
我々は、RGB-Dビデオ録画による1人の人間の実演から1発の模倣の問題に対処する。
コードはhttp://ditto.cs.uni-freiburg.deで公開しています。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Robot Person Following in Uniform Crowd Environment [13.708992331117281]
人追跡ロボットには、セキュリティ、高齢者介護、社交ロボットなど、多くの応用がある。
本研究では,ロバストでリアルタイムなオブジェクトトラッカーを開発することにより,タスク追従者のロボットの知覚能力の向上に焦点をあてる。
我々は,新しいRGB-Dトラッカーを備えた新しいロボット人追跡システムであるDep Tracking with RGB-D (DTRD)を提案する。
論文 参考訳(メタデータ) (2022-05-21T10:20:14Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - A System for Traded Control Teleoperation of Manipulation Tasks using
Intent Prediction from Hand Gestures [20.120263332724438]
本稿では,ロボットの知覚と手の動きからの意図予測を含む遠隔操作システムを提案する。
知覚モジュールは、ロボットワークスペースに存在するオブジェクトと、ユーザが把握したいと思われるオブジェクトの意図予測モジュールを識別する。
論文 参考訳(メタデータ) (2021-07-05T07:37:17Z) - Object-Independent Human-to-Robot Handovers using Real Time Robotic
Vision [6.089651609511804]
本稿では,ロボットビジョンと操作を用いた安全でオブジェクトに依存しないロボットハンドオーバのアプローチを提案する。
13の物体を用いた実験で、このロボットは81.9%の試験で人間から物体を取り出すことに成功した。
論文 参考訳(メタデータ) (2020-06-02T17:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。