論文の概要: Latent Space Roadmap for Visual Action Planning of Deformable and Rigid
Object Manipulation
- arxiv url: http://arxiv.org/abs/2003.08974v1
- Date: Thu, 19 Mar 2020 18:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 05:00:26.995542
- Title: Latent Space Roadmap for Visual Action Planning of Deformable and Rigid
Object Manipulation
- Title(参考訳): 変形および剛体操作の視覚行動計画のための潜在空間ロードマップ
- Authors: Martina Lippi, Petra Poklukar, Michael C. Welle, Anastasiia Varava,
Hang Yin, Alessandro Marino and Danica Kragic
- Abstract要約: プランニングは、イメージを埋め込んだ低次元の潜在状態空間で行われる。
我々のフレームワークは2つの主要なコンポーネントで構成されており、画像のシーケンスとして視覚的な計画を生成するビジュアル・フォレスト・モジュール(VFM)と、それら間のアクションを予測するアクション・プロポーザル・ネットワーク(APN)である。
- 参考スコア(独自算出の注目度): 74.88956115580388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a framework for visual action planning of complex manipulation
tasks with high-dimensional state spaces such as manipulation of deformable
objects. Planning is performed in a low-dimensional latent state space that
embeds images. We define and implement a Latent Space Roadmap (LSR) which is a
graph-based structure that globally captures the latent system dynamics. Our
framework consists of two main components: a Visual Foresight Module (VFM) that
generates a visual plan as a sequence of images, and an Action Proposal Network
(APN) that predicts the actions between them. We show the effectiveness of the
method on a simulated box stacking task as well as a T-shirt folding task
performed with a real robot.
- Abstract(参考訳): 本稿では,変形可能なオブジェクトの操作などの高次元状態空間を用いた複雑な操作タスクの視覚行動計画フレームワークを提案する。
計画は画像を埋め込んだ低次元の潜在状態空間で実行される。
我々は、潜在システムのダイナミクスをグローバルに捉えたグラフベースの構造である潜在空間ロードマップ(lsr)を定義し、実装する。
私たちのフレームワークは、画像のシーケンスとしてビジュアルプランを生成するvisual foresight module(vfm)と、それらの間のアクションを予測するaction proposal network(apn)の2つの主要なコンポーネントで構成されています。
本手法は,実ロボットによるtシャツ折り畳み作業だけでなく,シミュレーションボックス積み重ね作業にも有効であることを示す。
関連論文リスト
- Path Planning based on 2D Object Bounding-box [8.082514573754954]
都会の運転シナリオにおける模倣学習を通じて開発された物体の2次元境界ボックスを利用する経路計画法を提案する。
これは、高精細(HD)マップデータと周囲のカメラが捉えた画像を統合することで実現される。
我々は, nuPlan計画課題におけるモデルの評価を行い, 既存のビジョン中心の手法と比較して, 競争力があることを示した。
論文 参考訳(メタデータ) (2024-02-22T19:34:56Z) - Planning as In-Painting: A Diffusion-Based Embodied Task Planning
Framework for Environments under Uncertainty [56.30846158280031]
具体的AIのためのタスクプランニングは、最も難しい問題の1つだ。
In-paintingとしての計画」というタスク非依存の手法を提案する。
提案するフレームワークは,様々な具体的AIタスクにおいて,有望なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-02T10:07:17Z) - Compositional Foundation Models for Hierarchical Planning [52.18904315515153]
本稿では,言語,視覚,行動データを個別に訓練し,長期的課題を解決するための基礎モデルを提案する。
我々は,大規模なビデオ拡散モデルを用いて,環境に根ざした記号的計画を構築するために,大規模言語モデルを用いている。
生成したビデオプランは、生成したビデオからアクションを推論する逆ダイナミクスモデルを通じて、視覚運動制御に基礎を置いている。
論文 参考訳(メタデータ) (2023-09-15T17:44:05Z) - Graph-Transporter: A Graph-based Learning Method for Goal-Conditioned
Deformable Object Rearranging Task [1.807492010338763]
本稿では,目標条件付き変形可能なオブジェクト再構成タスクのための新しいフレームワークであるGraph-Transporterを提案する。
我々のフレームワークは、FCN(Fully Convolutional Network)に基づくアーキテクチャを採用し、視覚入力のみから画素単位のピック・アンド・プレイス・アクションを出力する。
論文 参考訳(メタデータ) (2023-02-21T05:21:04Z) - Long-Horizon Planning and Execution with Functional Object-Oriented
Networks [79.94575713911189]
タスク計画と実行のためのFOONとしてオブジェクトレベルの知識を活用するというアイデアを紹介します。
提案手法では,FOONをPDDLに自動変換し,市販のプランナ,アクションコンテキスト,ロボットスキルを活用する。
我々はCoppeliaSimの長期タスクに対するアプローチを実証し、学習されたアクションコンテキストを、これまで見たことのないシナリオにどのように拡張できるかを示す。
論文 参考訳(メタデータ) (2022-07-12T19:29:35Z) - Enabling Visual Action Planning for Object Manipulation through Latent
Space Roadmap [72.01609575400498]
高次元状態空間を有する複雑な操作タスクの視覚的行動計画のための枠組みを提案する。
低次元潜時空間におけるシステムダイナミクスを世界規模で捉えたグラフベースの構造であるタスク計画のためのLatent Space Roadmap(LSR)を提案する。
実ロボットで実行された2つの模擬ボックス積み重ねタスクと折り畳みタスクについて,本フレームワークの徹底的な検討を行う。
論文 参考訳(メタデータ) (2021-03-03T17:48:26Z) - A Long Horizon Planning Framework for Manipulating Rigid Pointcloud
Objects [25.428781562909606]
本稿では,剛体物体の操作に伴う長期計画問題の解決のための枠組みを提案する。
提案手法はオブジェクトサブゴールの空間における計画であり,ロボットとオブジェクトの相互作用のダイナミクスに関する推論からプランナーを解放する。
論文 参考訳(メタデータ) (2020-11-16T18:59:33Z) - Hallucinative Topological Memory for Zero-Shot Visual Planning [86.20780756832502]
視覚計画(VP)では、エージェントは、オフラインで取得した動的システムの観察から目標指向の振る舞いを計画することを学ぶ。
以前のVPに関するほとんどの研究は、学習された潜在空間で計画することでこの問題にアプローチし、結果として品質の低い視覚計画を生み出した。
本稿では,画像空間を直接計画し,競合性能を示すシンプルなVP手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T18:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。