論文の概要: Graph-Transporter: A Graph-based Learning Method for Goal-Conditioned
Deformable Object Rearranging Task
- arxiv url: http://arxiv.org/abs/2302.10445v1
- Date: Tue, 21 Feb 2023 05:21:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 16:13:48.094181
- Title: Graph-Transporter: A Graph-based Learning Method for Goal-Conditioned
Deformable Object Rearranging Task
- Title(参考訳): graph-transporter:ゴール条件付き変形可能なオブジェクト再構成タスクのためのグラフベース学習手法
- Authors: Yuhong Deng, Chongkun Xia, Xueqian Wang and Lipeng Chen
- Abstract要約: 本稿では,目標条件付き変形可能なオブジェクト再構成タスクのための新しいフレームワークであるGraph-Transporterを提案する。
我々のフレームワークは、FCN(Fully Convolutional Network)に基づくアーキテクチャを採用し、視覚入力のみから画素単位のピック・アンド・プレイス・アクションを出力する。
- 参考スコア(独自算出の注目度): 1.807492010338763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rearranging deformable objects is a long-standing challenge in robotic
manipulation for the high dimensionality of configuration space and the complex
dynamics of deformable objects. We present a novel framework,
Graph-Transporter, for goal-conditioned deformable object rearranging tasks. To
tackle the challenge of complex configuration space and dynamics, we represent
the configuration space of a deformable object with a graph structure and the
graph features are encoded by a graph convolution network. Our framework adopts
an architecture based on Fully Convolutional Network (FCN) to output pixel-wise
pick-and-place actions from only visual input. Extensive experiments have been
conducted to validate the effectiveness of the graph representation of
deformable object configuration. The experimental results also demonstrate that
our framework is effective and general in handling goal-conditioned deformable
object rearranging tasks.
- Abstract(参考訳): 変形可能な物体の再配置は、構成空間の高次元と変形可能な物体の複雑なダイナミクスに対するロボット操作における長年の課題である。
目標条件付き変形可能なオブジェクト再構成タスクのための新しいフレームワークであるGraph-Transporterを提案する。
複雑な構成空間とダイナミクスの課題に対処するため、グラフ構造を持つ変形可能なオブジェクトの構成空間を表現し、グラフ特徴をグラフ畳み込みネットワークで符号化する。
本フレームワークは,完全畳み込みネットワーク(fcn)に基づくアーキテクチャを採用し,視覚入力のみから画素単位のピック・アンド・プレース動作を出力する。
変形可能なオブジェクト構成のグラフ表現の有効性を検証するために、大規模な実験が行われた。
また,本フレームワークは,目標条件付き変形可能なオブジェクト再構成タスクの処理において有効かつ汎用的であることを示す。
関連論文リスト
- Graphical Object-Centric Actor-Critic [55.2480439325792]
本稿では,アクター批判とモデルに基づくアプローチを組み合わせたオブジェクト中心強化学習アルゴリズムを提案する。
変換器エンコーダを用いてオブジェクト表現とグラフニューラルネットワークを抽出し、環境のダイナミクスを近似する。
本アルゴリズムは,現状のモデルフリーアクター批判アルゴリズムよりも複雑な3次元ロボット環境と構成構造をもつ2次元環境において,より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-26T06:05:12Z) - Learning visual-based deformable object rearrangement with local graph
neural networks [4.333220038316982]
本稿では,変形可能なオブジェクト状態とキーポイントの集合とその相互作用を効率的にモデル化できる新しい表現戦略を提案する。
また、変形可能な再配置ダイナミクスを共同でモデル化し、最適操作動作を推定するための光局所GNN学習を提案する。
本手法は, 各種変形可能なアレンジメントタスク(平均96.3%)において, シミュレーション実験における最先端手法よりもはるかに高い成功率を達成する。
論文 参考訳(メタデータ) (2023-10-16T11:42:54Z) - AGAR: Attention Graph-RNN for Adaptative Motion Prediction of Point
Clouds of Deformable Objects [7.414594429329531]
変形可能な3Dオブジェクトのポイントクラウド予測のための改良されたアーキテクチャを提案する。
具体的には、変形可能な形状を扱うために、点雲の空間構造を学習し、活用するグラフベースのアプローチを提案する。
提案した適応モジュールは各点の局所的および大域的な動きの合成を制御し、変形可能な3Dオブジェクトの複雑な動きをより効率的にモデル化することができる。
論文 参考訳(メタデータ) (2023-07-19T12:21:39Z) - Neural Constraint Satisfaction: Hierarchical Abstraction for
Combinatorial Generalization in Object Rearrangement [75.9289887536165]
基礎となるエンティティを明らかにするための階層的抽象化手法を提案する。
本研究では,エージェントのモデルにおける実体の状態の介入と,環境中の物体に作用する状態の対応関係を学習する方法を示す。
この対応を利用して、オブジェクトの異なる数や構成に一般化する制御法を開発する。
論文 参考訳(メタデータ) (2023-03-20T18:19:36Z) - Deep Reinforcement Learning Based on Local GNN for Goal-conditioned
Deformable Object Rearranging [1.807492010338763]
オブジェクトの再配置は、ロボットが変形可能なオブジェクトを目標設定に再構成する必要がある、最も一般的な変形可能な操作タスクの1つである。
従来の研究は、モデルベースまたはデータ駆動アプローチによる各タスクのエキスパートシステムの設計に重点を置いていた。
画像から検出されたキーポイントを2つの表現グラフを用いて符号化する局所GNN(Graph Neural Network)に基づく学習法を設計する。
我々のフレームワークはシミュレーションにおける複数の1-D(ロープリング、ロープリング)と2-D(クロース)の再構成作業に有効であり、キーポイント検出器を微調整することで、実際のロボットに容易に移行できる。
論文 参考訳(メタデータ) (2023-02-21T05:21:26Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Learning to Rearrange Deformable Cables, Fabrics, and Bags with
Goal-Conditioned Transporter Networks [36.90218756798642]
ケーブル、布、バッグなどの変形可能な物体を再配置し、操作することは、ロボット操作における長年の課題である。
1D, 2D, 3Dの変形可能な構造を持つシミュレーションベンチマークスイートを開発した。
本稿では,ロボット操作学習のためのモデルアーキテクチャであるTransporter Networksに目標条件を組み込むことを提案する。
論文 参考訳(メタデータ) (2020-12-06T22:21:54Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z) - Latent Space Roadmap for Visual Action Planning of Deformable and Rigid
Object Manipulation [74.88956115580388]
プランニングは、イメージを埋め込んだ低次元の潜在状態空間で行われる。
我々のフレームワークは2つの主要なコンポーネントで構成されており、画像のシーケンスとして視覚的な計画を生成するビジュアル・フォレスト・モジュール(VFM)と、それら間のアクションを予測するアクション・プロポーザル・ネットワーク(APN)である。
論文 参考訳(メタデータ) (2020-03-19T18:43:26Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。