論文の概要: Probabilistic Human Intent Prediction for Mobile Manipulation: An Evaluation with Human-Inspired Constraints
- arxiv url: http://arxiv.org/abs/2507.10131v1
- Date: Mon, 14 Jul 2025 10:21:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.666664
- Title: Probabilistic Human Intent Prediction for Mobile Manipulation: An Evaluation with Human-Inspired Constraints
- Title(参考訳): 移動操作のための確率論的人間意図予測:人間に触発された制約による評価
- Authors: Cesar Alan Contreras, Manolis Chiou, Alireza Rastegarpanah, Michal Szulik, Rustam Stolkin,
- Abstract要約: 人間の意図の正確な推論は、人間とロボットの衝突を引き起こすことなく、人間とロボットの協調を可能にする。
ロボットが人間の操作者の意図を推定できる確率的フレームワークであるGUIDERを提案する。
アイザック・シムの25の試験(5人の被験者x5のタスク変種)においてGUIDERを評価し,ナビゲーション用と操作用の2つのベースラインと比較した。
- 参考スコア(独自算出の注目度): 2.2893865000399938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate inference of human intent enables human-robot collaboration without constraining human control or causing conflicts between humans and robots. We present GUIDER (Global User Intent Dual-phase Estimation for Robots), a probabilistic framework that enables a robot to estimate the intent of human operators. GUIDER maintains two coupled belief layers, one tracking navigation goals and the other manipulation goals. In the Navigation phase, a Synergy Map blends controller velocity with an occupancy grid to rank interaction areas. Upon arrival at a goal, an autonomous multi-view scan builds a local 3D cloud. The Manipulation phase combines U2Net saliency, FastSAM instance saliency, and three geometric grasp-feasibility tests, with an end-effector kinematics-aware update rule that evolves object probabilities in real-time. GUIDER can recognize areas and objects of intent without predefined goals. We evaluated GUIDER on 25 trials (five participants x five task variants) in Isaac Sim, and compared it with two baselines, one for navigation and one for manipulation. Across the 25 trials, GUIDER achieved a median stability of 93-100% during navigation, compared with 60-100% for the BOIR baseline, with an improvement of 39.5% in a redirection scenario (T5). During manipulation, stability reached 94-100% (versus 69-100% for Trajectron), with a 31.4% difference in a redirection task (T3). In geometry-constrained trials (manipulation), GUIDER recognized the object intent three times earlier than Trajectron (median remaining time to confident prediction 23.6 s vs 7.8 s). These results validate our dual-phase framework and show improvements in intent inference in both phases of mobile manipulation tasks.
- Abstract(参考訳): 人間の意図の正確な推論は、人間とロボットの衝突を引き起こすことなく、人間とロボットの協調を可能にする。
ロボットが人間の操作者の意図を推定できる確率的枠組みであるGUIDER(Global User Intent Dual-phase Estimation for Robots)を提案する。
GUIDERは、ナビゲーション目標と他の操作目標の2つの結合された信念層を維持している。
ナビゲーションフェーズでは、Synergy Mapが制御速度と占有グリッドをブレンドして相互作用領域をランク付けする。
目標に到達すると、自律的なマルチビュースキャンがローカルな3Dクラウドを構築する。
Manipulation フェーズは U2Net saliency、FastSAM instance saliency、および3つの幾何的グリップフィーザビリティテストと、オブジェクトの確率をリアルタイムで進化させるエンドエフェクタキネマティクス対応更新ルールを組み合わせる。
GUIDERは、事前に定義された目標なしに、目的の領域やオブジェクトを認識することができる。
アイザック・シムの25の試験(5人の被験者x5のタスク変種)においてGUIDERを評価し,ナビゲーション用と操作用の2つのベースラインと比較した。
25回の試験で、GUIDERは航法中に93-100%の安定性を達成し、BOIRベースラインでは60-100%、リダイレクトシナリオでは39.5%改善した(T5)。
操作中、安定性は94-100%に達し(トラジェクトロンでは69-100%)、リダイレクトタスク(T3)では31.4%の違いがあった。
幾何学的に制約された試行(操作)において、GUIDERはトラジェクトロンよりも3倍早く物体の意図を認識した(中央値は23.6秒対7.8秒)。
これらの結果は,2段階の枠組みを検証し,モバイル操作タスクの両フェーズにおける意図推論の改善を示す。
関連論文リスト
- UPTor: Unified 3D Human Pose Dynamics and Trajectory Prediction for Human-Robot Interaction [0.688204255655161]
本研究では,グローバル座標フレームにおける全体ポーズと軌道キーポイントの予測手法を提案する。
我々は、市販の3次元ポーズ推定モジュール、グラフアテンションネットワーク、コンパクトで非自己回帰的なトランスフォーマーを使用する。
従来の研究と比較して、我々のアプローチはコンパクトでリアルタイムであり、全てのデータセットにわたる人間のナビゲーション動作を予測する上で正確であることを示す。
論文 参考訳(メタデータ) (2025-05-20T19:57:25Z) - Robot See Robot Do: Imitating Articulated Object Manipulation with Monocular 4D Reconstruction [51.49400490437258]
本研究は,1つの単分子RGB人間の実演から音声による物体操作を模倣する手法を開発した。
まず,モノクロ映像から3次元部分運動を復元する4次元微分可能部品モデル(4D-DPM)を提案する。
この4D再構成を前提として、ロボットは物体の軌道を再現し、両腕の動きを計画し、実証された物体部分の動きを誘導する。
両用するYuMiロボットを用いて,4D-DPMの3D追跡精度を実写3D部分軌跡に基づいて評価し,9つのオブジェクトに対してRSRDの物理的実行性能を評価した。
論文 参考訳(メタデータ) (2024-09-26T17:57:16Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - RiEMann: Near Real-Time SE(3)-Equivariant Robot Manipulation without Point Cloud Segmentation [20.685168082722534]
本稿では,シーンポイントクラウド入力からリアルタイムSE(3)-等価ロボットマニピュレーション模倣学習フレームワークRiEMannを提案する。
ディスクリプタのフィールドマッチングに依存する従来のメソッドと比較して、RiEMannはオブジェクトのセグメンテーションなしで操作するためのオブジェクトのターゲットポーズを直接予測する。
RiEMannは、5から10のデモで操作タスクをスクラッチから学習し、SE(3)変換とターゲットオブジェクトのインスタンスを一般化し、邪魔なオブジェクトの視覚的干渉に抵抗し、ターゲットオブジェクトのほぼリアルタイムのポーズ変更に従う。
論文 参考訳(メタデータ) (2024-03-28T14:31:10Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Towards a large-scale fused and labeled dataset of human pose while
interacting with robots in shared urban areas [0.0]
人間のポース推定は、下流の様々な応用に欠かせないステップストーンである。
このギャップを2つのデータセットの再利用、再利用、ラベル付けによって埋めます。
その結果得られたユニークなデータセットは、屋内および屋外における何千もの人間とロボットの相互作用のシナリオを表している。
論文 参考訳(メタデータ) (2024-01-28T18:24:34Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - Walking = Traversable? : Traversability Prediction via Multiple Human
Object Tracking under Occlusion [1.9580473532948401]
本研究では、観察ロボットに搭載された3人称単眼カメラに、一対一のセンサーを代替する革新的なアプローチを提案する。
鍵となるアイデアは、SLAMとMOTという2種類のトラッカーを使って静止物体を監視し、人間を動かし、相互作用を評価することである。
論文 参考訳(メタデータ) (2023-09-30T03:44:48Z) - Robots of the Lost Arc: Self-Supervised Learning to Dynamically Manipulate Fixed-Endpoint Cables [31.103646278125318]
高速ロボットアームの動きは、ケーブルを操作して障害物を乗り越えたり、台座から物体をノックしたり、障害物の間を織ったりすることができる。
本稿では、UR5ロボットがこれらの3つのタスクを実行できる自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T00:19:50Z) - Sim-to-Real Transfer for Vision-and-Language Navigation [70.86250473583354]
本研究では,従来は目に見えなかった環境下でロボットを解放し,制約のない自然言語ナビゲーション指示に従うという課題について検討する。
VLN(Vision-and-Language Navigation)の課題に関する最近の研究は、シミュレーションにおいて大きな進歩を遂げている。
ロボット工学における本研究の意義を評価するため,シミュレーションで訓練されたVLNエージェントを物理ロボットに転送する。
論文 参考訳(メタデータ) (2020-11-07T16:49:04Z) - It Is Not the Journey but the Destination: Endpoint Conditioned
Trajectory Prediction [59.027152973975575]
フレキシブルな人間の軌道予測のための予測条件付きネットワーク(PECNet)を提案する。
PECNetは長距離マルチモーダル軌道予測を支援するために遠方のエンドポイントを推論する。
我々は、PECNetがスタンフォードドローン軌道予測ベンチマークの最先端性能を20.9%改善し、ETH/UCYベンチマークの40.8%向上したことを示す。
論文 参考訳(メタデータ) (2020-04-04T21:27:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。