論文の概要: Fourier Transporter: Bi-Equivariant Robotic Manipulation in 3D
- arxiv url: http://arxiv.org/abs/2401.12046v2
- Date: Fri, 15 Mar 2024 22:39:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 02:22:38.157084
- Title: Fourier Transporter: Bi-Equivariant Robotic Manipulation in 3D
- Title(参考訳): フーリエトランスポーター:2種類のロボットマニピュレーションを3Dで実現
- Authors: Haojie Huang, Owen Howell, Dian Wang, Xupeng Zhu, Robin Walters, Robert Platt,
- Abstract要約: 本稿では,2重のSE(d)xSE(d)対称性をピックプレース問題に適用し,より高い試料効率を実現するフーリエトランスポーター(FourTran)を提案する。
FourTranは、専門家によるデモを使って訓練されたオープンループの行動クローニング手法で、新しい環境におけるピック・プレース・アクションを予測する。
- 参考スコア(独自算出の注目度): 19.296797946506604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many complex robotic manipulation tasks can be decomposed as a sequence of pick and place actions. Training a robotic agent to learn this sequence over many different starting conditions typically requires many iterations or demonstrations, especially in 3D environments. In this work, we propose Fourier Transporter (FourTran) which leverages the two-fold SE(d)xSE(d) symmetry in the pick-place problem to achieve much higher sample efficiency. FourTran is an open-loop behavior cloning method trained using expert demonstrations to predict pick-place actions on new environments. FourTran is constrained to incorporate symmetries of the pick and place actions independently. Our method utilizes a fiber space Fourier transformation that allows for memory-efficient construction. We test our proposed network on the RLbench benchmark and achieve state-of-the-art results across various tasks.
- Abstract(参考訳): 多くの複雑なロボット操作タスクは、ピック・アンド・プレイス・アクションのシーケンスとして分解することができる。
ロボットエージェントを訓練して、多くの異なる開始条件でこのシーケンスを学ぶには、通常、特に3D環境で、多くのイテレーションやデモが必要になる。
本研究では,2次元SE(d)xSE(d)対称性を利用するフーリエトランスポーター(FourTran)を提案する。
FourTranは、専門家によるデモを使って訓練されたオープンループの行動クローニング手法で、新しい環境におけるピック・プレース・アクションを予測する。
FourTranは、ピック・アンド・プレイス・アクションの対称性を独立して組み込むよう制約されている。
本手法は, メモリ効率の高い構成が可能なファイバ空間フーリエ変換を利用する。
提案するネットワークをRLbenchベンチマークでテストし,様々なタスクで最先端の結果を得る。
関連論文リスト
- DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
ロボットに新しいスキルを迅速かつ便利に教えることは、ロボットシステムの普及に不可欠である。
我々は、RGB-Dビデオ録画による1人の人間の実演から1発の模倣の問題に対処する。
コードはhttp://ditto.cs.uni-freiburg.deで公開しています。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - Invertible Fourier Neural Operators for Tackling Both Forward and
Inverse Problems [18.48295539583625]
前方および逆問題の両方に対処する可逆フーリエニューラル演算子(iFNO)を提案する。
我々は,入力空間内の固有構造を捕捉し,後部推論を可能にする変分自動エンコーダを統合した。
5つのベンチマーク問題に対する評価は,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-18T22:16:43Z) - Deformable Mixer Transformer with Gating for Multi-Task Learning of
Dense Prediction [126.34551436845133]
CNNとTransformerには独自の利点があり、MTL(Multi-task Learning)の高密度予測に広く使われている。
本稿では,変形可能なCNNと問合せベースのTransformerの長所を共用したMTLモデルを提案する。
論文 参考訳(メタデータ) (2023-08-10T17:37:49Z) - Decision S4: Efficient Sequence-Based RL via State Spaces Layers [87.3063565438089]
我々は、S4モデルの訓練効率を維持しつつ、軌道で機能する非政治的な訓練手順を提案する。
反復的に訓練され、長距離依存の恩恵を受け、新しい安定したアクター・クリティカルなメカニズムをベースとした、オンデマンドのトレーニング手順。
論文 参考訳(メタデータ) (2023-06-08T13:03:53Z) - Equivariant Descriptor Fields: SE(3)-Equivariant Energy-Based Models for
End-to-End Visual Robotic Manipulation Learning [2.8388425545775386]
我々は,ポイントクラウド入力からの視覚ロボット操作のための終端SE(3)-同変モデルを提案する。
我々のモデルは、事前の知識がなくてもゼロから学習できることを示します。
論文 参考訳(メタデータ) (2022-06-16T17:26:06Z) - BEVerse: Unified Perception and Prediction in Birds-Eye-View for
Vision-Centric Autonomous Driving [92.05963633802979]
マルチカメラシステムに基づく3次元認識と予測のための統合フレームワークであるBEVerseを提案する。
マルチタスクBEVerseは3次元オブジェクト検出,セマンティックマップ構築,動き予測において単一タスク法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-19T17:55:35Z) - SepTr: Separable Transformer for Audio Spectrogram Processing [74.41172054754928]
分離可能トランス (Separable Transformer, SepTr) と呼ばれる新しい視覚変換器アーキテクチャを提案する。
SepTrは2つのトランスフォーマーブロックを逐次的に使用し、1つは同じ周波数ビン内のトークンに、もう1つは同じ時間間隔でトークンに出席する。
我々は3つのベンチマークデータセットで実験を行い、我々のアーキテクチャが従来のビジョントランスフォーマーや他の最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T19:48:43Z) - ATISS: Autoregressive Transformers for Indoor Scene Synthesis [112.63708524926689]
我々は,合成室内環境を構築するための新しい自己回帰型トランスフォーマーアーキテクチャであるATISSを紹介する。
この定式化は、ATISSが完全に自動的な部屋レイアウト合成を超えて一般的に有用になるため、より自然なものであると我々は主張する。
本モデルは,ラベル付き3Dバウンディングボックスのみを監督として,自動回帰生成モデルとしてエンドツーエンドで訓練されている。
論文 参考訳(メタデータ) (2021-10-07T17:58:05Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。