論文の概要: Consolidating Kinematic Models to Promote Coordinated Mobile
Manipulations
- arxiv url: http://arxiv.org/abs/2108.01264v3
- Date: Tue, 10 Aug 2021 07:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 01:02:38.437486
- Title: Consolidating Kinematic Models to Promote Coordinated Mobile
Manipulations
- Title(参考訳): 協調移動操作を促進する運動モデルの統合
- Authors: Ziyuan Jiao, Zeyu Zhang, Xin Jiang, David Han, Song-Chun Zhu, Yixin
Zhu, Hangxin Liu
- Abstract要約: 我々は,移動体ベース,アーム,移動体操作で操作する物体の運動学を統合する仮想キネマティックチェイン(VKC)を構築した。
移動操作タスクは、構築されたVKCの状態を変更して表現され、移動計画問題に変換することができる。
- 参考スコア(独自算出の注目度): 96.03270112422514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We construct a Virtual Kinematic Chain (VKC) that readily consolidates the
kinematics of the mobile base, the arm, and the object to be manipulated in
mobile manipulations. Accordingly, a mobile manipulation task is represented by
altering the state of the constructed VKC, which can be converted to a motion
planning problem, formulated, and solved by trajectory optimization. This new
VKC perspective of mobile manipulation allows a service robot to (i) produce
well-coordinated motions, suitable for complex household environments, and (ii)
perform intricate multi-step tasks while interacting with multiple objects
without an explicit definition of intermediate goals. In simulated experiments,
we validate these advantages by comparing the VKC-based approach with baselines
that solely optimize individual components. The results manifest that VKC-based
joint modeling and planning promote task success rates and produce more
efficient trajectories.
- Abstract(参考訳): 我々は,移動体ベース,アーム,移動体操作で操作可能な物体の運動学を,容易に統合する仮想キネマティックチェイン(VKC)を構築した。
これにより、移動操作タスクは、構築されたVKCの状態を変更して、動作計画問題に変換し、定式化し、軌道最適化により解決することができる。
新しいvkcのモバイル操作の視点は、サービスロボットを可能にする
(i)複雑な家庭環境に適したよく調整された動きを作り出すこと、
(2)中間目標を明確に定義せずに複数のオブジェクトと対話しながら複雑な多段階タスクを行う。
シミュレーション実験では、VKCベースのアプローチと、個々のコンポーネントのみを最適化するベースラインを比較して、これらの利点を検証する。
その結果,VKCをベースとした共同モデルと計画がタスクの成功率を促進し,より効率的な軌道を導出することがわかった。
関連論文リスト
- ManipGPT: Is Affordance Segmentation by Large Vision Models Enough for Articulated Object Manipulation? [17.356760351203715]
本稿では,調音対象の最適相互作用領域を予測するためのフレームワークであるManipGPTを紹介する。
我々は、シミュレートされた9.9kの画像と実際の画像のデータセットを作成し、シミュレートとリアルのギャップを埋めた。
我々は,ロボット操作のシナリオに対して,モデルのコンテキスト内セグメンテーション機能を適用することにより,部分レベルの割当セグメンテーションを大幅に改善した。
論文 参考訳(メタデータ) (2024-12-13T11:22:01Z) - Self-Supervised Learning of Grasping Arbitrary Objects On-the-Move [8.445514342786579]
本研究では3つの完全畳み込みニューラルネットワーク(FCN)モデルを導入し,視覚入力から静的グリッププリミティブ,動的グリッププリミティブ,残留移動速度誤差を予測する。
提案手法は高い把握精度とピック・アンド・プレイス効率を実現した。
論文 参考訳(メタデータ) (2024-11-15T02:59:16Z) - Cooperative and Asynchronous Transformer-based Mission Planning for Heterogeneous Teams of Mobile Robots [1.1049608786515839]
エージェント間の分散意思決定を協調するための協調型非同期トランスフォーマーベースミッションプランニング(CATMiP)フレームワークを提案する。
我々は,CATMiPを2次元グリッドワールドシミュレーション環境で評価し,その性能を計画に基づく探索法と比較した。
論文 参考訳(メタデータ) (2024-10-08T21:14:09Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Efficient Task Planning for Mobile Manipulation: a Virtual Kinematic
Chain Perspective [88.25410628450453]
モバイル操作におけるタスク計画の有効性を改善するために,仮想キネマティック・チェイン・パースペクティブを提案する。
移動体、腕、および全体として操作されている物体の運動学を統合することで、この新しいVKCの視点は抽象的な動作を自然に定義する。
実験では,ドメイン計画定義言語(PDDL)とVKCを用いたタスクプランナを実装した。
論文 参考訳(メタデータ) (2021-08-03T02:49:18Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Meta-Reinforcement Learning for Adaptive Motor Control in Changing Robot
Dynamics and Environments [3.5309638744466167]
この研究は、ロバストな移動のための異なる条件に制御ポリシーを適応させるメタラーニングアプローチを開発した。
提案手法は, インタラクションモデルを更新し, 推定された状態-作用軌道のアクションをサンプル化し, 最適なアクションを適用し, 報酬を最大化する。
論文 参考訳(メタデータ) (2021-01-19T12:57:12Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。