論文の概要: Predicting Motion Plans for Articulating Everyday Objects
- arxiv url: http://arxiv.org/abs/2303.01484v1
- Date: Thu, 2 Mar 2023 18:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 12:58:04.727647
- Title: Predicting Motion Plans for Articulating Everyday Objects
- Title(参考訳): 毎日の物体を聴くための運動計画予測
- Authors: Arjun Gupta, Max E. Shepherd, Saurabh Gupta
- Abstract要約: 本研究では,実シーンに置かれる物体をシミュレートするモーションシミュレータを開発した。
次に、動き計画の高速かつ柔軟な表現であるSeqIK+$theta$を紹介する。
我々は、SeqIK+$theta$を使用して、テスト時に新しいオブジェクトを記述するための動きプランを素早く予測するモデルを学習する。
- 参考スコア(独自算出の注目度): 16.0496453009462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile manipulation tasks such as opening a door, pulling open a drawer, or
lifting a toilet lid require constrained motion of the end-effector under
environmental and task constraints. This, coupled with partial information in
novel environments, makes it challenging to employ classical motion planning
approaches at test time. Our key insight is to cast it as a learning problem to
leverage past experience of solving similar planning problems to directly
predict motion plans for mobile manipulation tasks in novel situations at test
time. To enable this, we develop a simulator, ArtObjSim, that simulates
articulated objects placed in real scenes. We then introduce SeqIK+$\theta_0$,
a fast and flexible representation for motion plans. Finally, we learn models
that use SeqIK+$\theta_0$ to quickly predict motion plans for articulating
novel objects at test time. Experimental evaluation shows improved speed and
accuracy at generating motion plans than pure search-based methods and pure
learning methods.
- Abstract(参考訳): ドアを開いたり、引き出しを開けたり、トイレの蓋を持ち上げたりといった移動操作は、環境やタスクの制約の下でエンドエフェクタの動作を制限する必要がある。
これは、新しい環境における部分的な情報と組み合わさって、テスト時に古典的な動き計画手法を採用することが困難になる。
我々の重要な洞察は、同様の計画問題の解決における過去の経験を活用して、新しい状況下でのモバイル操作タスクの動作計画を直接予測することである。
そこで我々は,実場面に配置した調音物体をシミュレートするシミュレータartobjsimを開発した。
次に、動き計画の高速かつ柔軟な表現であるSeqIK+$\theta_0$を紹介する。
最後に、SeqIK+$\theta_0$を使用して、テスト時に新しいオブジェクトを記述するための動きプランを迅速に予測するモデルを学習する。
実験評価の結果, 純粋探索法や純粋学習法よりも, 運動計画生成の速度と精度が向上した。
関連論文リスト
- Self-Supervised Learning of Grasping Arbitrary Objects On-the-Move [8.445514342786579]
本研究では3つの完全畳み込みニューラルネットワーク(FCN)モデルを導入し,視覚入力から静的グリッププリミティブ,動的グリッププリミティブ,残留移動速度誤差を予測する。
提案手法は高い把握精度とピック・アンド・プレイス効率を実現した。
論文 参考訳(メタデータ) (2024-11-15T02:59:16Z) - Neural MP: A Generalist Neural Motion Planner [75.82675575009077]
運動計画問題にデータ駆動学習を大規模に適用することで,これを実現する。
提案手法は, シミュレーションの複雑なシーンを多数構築し, モーションプランナーから専門家のデータを収集し, 反応的なジェネラリストポリシーに抽出する。
我々は,4つの異なる環境における64の動作計画タスクについて,その方法の徹底的な評価を行う。
論文 参考訳(メタデータ) (2024-09-09T17:59:45Z) - HYPERmotion: Learning Hybrid Behavior Planning for Autonomous Loco-manipulation [7.01404330241523]
HYPERmotionは、異なるシナリオのタスクに基づいて行動を学び、選択し、計画するフレームワークである。
強化学習と全身最適化を組み合わせることで,38関節の運動を生成する。
シミュレーションと実世界の実験では、学習した動きが新しいタスクに効率的に適応できることが示されている。
論文 参考訳(メタデータ) (2024-06-20T18:21:24Z) - Task and Motion Planning for Execution in the Real [24.01204729304763]
この作業は、作業を含むタスクと動作の計画を生成するが、計画時には完全には理解できない。
実行は、タスク目標に到達するまでオフラインで計画された動きとオンライン行動を組み合わせる。
提案したフレームワークを評価するために,40の実ロボット試験とモチベーション実証を行った。
その結果、実行時間が短縮され、アクションの数が少なくなり、さまざまなギャップが生じる問題の成功率が向上した。
論文 参考訳(メタデータ) (2024-06-05T22:30:40Z) - RoboTAP: Tracking Arbitrary Points for Few-Shot Visual Imitation [36.43143326197769]
Track-Any-Point (TAP) モデルは、デモ中の関連する動きを分離し、低レベルのコントローラをパラメータ化して、シーン構成の変化をまたいでこの動きを再現する。
この結果は,形状整合,積み重ね,さらには接着や物体の付着といった完全な経路追従といった複雑な物体配置タスクを解くことのできるロバストなロボットポリシーで示される。
論文 参考訳(メタデータ) (2023-08-30T11:57:04Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - DiffSkill: Skill Abstraction from Differentiable Physics for Deformable
Object Manipulations with Tools [96.38972082580294]
DiffSkillは、変形可能なオブジェクト操作タスクを解決するために、スキル抽象化に微分可能な物理シミュレータを使用する新しいフレームワークである。
特に、勾配に基づくシミュレーターから個々のツールを用いて、まず短距離のスキルを得る。
次に、RGBD画像を入力として取り込む実演軌跡から、ニューラルネットワークの抽象体を学習する。
論文 参考訳(メタデータ) (2022-03-31T17:59:38Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。