論文の概要: Intention estimation from gaze and motion features for human-robot
shared-control object manipulation
- arxiv url: http://arxiv.org/abs/2208.08688v1
- Date: Thu, 18 Aug 2022 07:53:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:14:58.090793
- Title: Intention estimation from gaze and motion features for human-robot
shared-control object manipulation
- Title(参考訳): 人ロボット共有制御物体操作のための視線と運動特徴からの意図推定
- Authors: Anna Belardinelli, Anirudh Reddy Kondapally, Dirk Ruiken, Daniel
Tanneberg, Tomoki Watabe
- Abstract要約: 共有制御は、ユーザの意図の実行を支援することで、遠隔操作のオブジェクト操作を支援する。
自然な視線と運動特徴を用いて現在の動作と対象対象物を予測する意図推定フレームワークを提示する。
- 参考スコア(独自算出の注目度): 1.128708201885454
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Shared control can help in teleoperated object manipulation by assisting with
the execution of the user's intention. To this end, robust and prompt intention
estimation is needed, which relies on behavioral observations. Here, an
intention estimation framework is presented, which uses natural gaze and motion
features to predict the current action and the target object. The system is
trained and tested in a simulated environment with pick and place sequences
produced in a relatively cluttered scene and with both hands, with possible
hand-over to the other hand. Validation is conducted across different users and
hands, achieving good accuracy and earliness of prediction. An analysis of the
predictive power of single features shows the predominance of the grasping
trigger and the gaze features in the early identification of the current
action. In the current framework, the same probabilistic model can be used for
the two hands working in parallel and independently, while a rule-based model
is proposed to identify the resulting bimanual action. Finally, limitations and
perspectives of this approach to more complex, full-bimanual manipulations are
discussed.
- Abstract(参考訳): 共有制御は、ユーザの意図の実行を補助することにより、遠隔操作のオブジェクト操作に役立つ。
この目的のためには、行動観察に依存する堅牢で迅速な意図推定が必要である。
ここでは、現在の動作と対象物を予測するために自然な視線と運動特徴を用いた意図推定フレームワークを提案する。
このシステムは、比較的ごちゃごちゃしたシーンと両手で生成したピックとプレイスシーケンスをシミュレートされた環境で訓練され、テストされる。
検証はさまざまなユーザと手間で実施され、精度と予測能力が向上する。
単一特徴の予測力の解析により、現在の動作の早期同定において、把持トリガーの優位と視線の特徴を示す。
現在のフレームワークでは、並列かつ独立して作業する両手に対して、同じ確率モデルが使用できるが、結果のバイマニナルアクションを特定するためにルールベースのモデルが提案されている。
最後に、より複雑で本格的な操作に対するこのアプローチの限界と展望について議論する。
関連論文リスト
- Towards Unifying Interpretability and Control: Evaluation via Intervention [25.4582941170387]
本稿では,解釈可能性の基本的な目標として介入を提案し,手法が介入を通してモデル動作をいかにうまく制御できるかを評価するために成功基準を導入する。
我々は4つの一般的な解釈可能性手法(オートエンコーダ、ロジットレンズ、チューニングレンズ、探索)を抽象エンコーダデコーダフレームワークに拡張する。
本稿では,介入成功率とコヒーレンス・インターベンショントレードオフの2つの新しい評価指標を紹介する。
論文 参考訳(メタデータ) (2024-11-07T04:52:18Z) - PEAR: Phrase-Based Hand-Object Interaction Anticipation [20.53329698350243]
ファースト・パーソン・ハンド・オブジェクト・インタラクション・予測は、現在のシーンとプロンプトに基づいてインタラクション・プロセスを予測することを目的としている。
既存の研究は通常、操作を無視しながら相互作用の意図だけを予測している。
インタラクションの意図と操作を共同で予測する新しいモデルPEARを提案する。
論文 参考訳(メタデータ) (2024-07-31T10:28:49Z) - Value of Assistance for Grasping [6.452975320319021]
本研究では,特定の観察がロボットのタスク完了能力に与える影響を評価する尺度を提案する。
シミュレーションおよび実世界の協調的把握設定における提案手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-22T20:25:08Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Control-Aware Prediction Objectives for Autonomous Driving [78.19515972466063]
本研究では,制御に対する予測の下流効果を評価するための制御認識予測目標(CAPOs)を提案する。
本稿では,エージェント間の注意モデルを用いた重み付けと,予測軌跡を接地真実軌跡に交換する際の制御変動に基づく重み付けの2つの方法を提案する。
論文 参考訳(メタデータ) (2022-04-28T07:37:21Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - RAIN: Reinforced Hybrid Attention Inference Network for Motion
Forecasting [34.54878390622877]
本稿では,ハイブリットアテンション機構に基づく動的キー情報の選択とランク付けを行う汎用的な動き予測フレームワークを提案する。
このフレームワークは、マルチエージェント軌道予測と人間の動き予測タスクを処理するためにインスタンス化される。
我々は,異なる領域における合成シミュレーションと運動予測ベンチマークの両方について,その枠組みを検証した。
論文 参考訳(メタデータ) (2021-08-03T06:30:30Z) - A System for Traded Control Teleoperation of Manipulation Tasks using
Intent Prediction from Hand Gestures [20.120263332724438]
本稿では,ロボットの知覚と手の動きからの意図予測を含む遠隔操作システムを提案する。
知覚モジュールは、ロボットワークスペースに存在するオブジェクトと、ユーザが把握したいと思われるオブジェクトの意図予測モジュールを識別する。
論文 参考訳(メタデータ) (2021-07-05T07:37:17Z) - Adversarial Motion Modelling helps Semi-supervised Hand Pose Estimation [116.07661813869196]
そこで本稿では,非ラベルビデオに対人トレーニングとモーションモデリングのアイデアを組み合わせることを提案する。
本研究は,非ラベル映像系列の半教師あり学習により,逆方向が手ポーズ推定器の特性の向上につながることを示す。
このアプローチの主な利点は、ペアのトレーニングデータよりもはるかに容易に、未ペアのビデオとジョイントシーケンスデータを利用することができることです。
論文 参考訳(メタデータ) (2021-06-10T17:50:19Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。