論文の概要: EDGI: Equivariant Diffusion for Planning with Embodied Agents
- arxiv url: http://arxiv.org/abs/2303.12410v2
- Date: Thu, 19 Oct 2023 08:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 20:52:41.521861
- Title: EDGI: Equivariant Diffusion for Planning with Embodied Agents
- Title(参考訳): EDGI: Embodied Agents を用いた計画のための等変拡散
- Authors: Johann Brehmer, Joey Bose, Pim de Haan, Taco Cohen
- Abstract要約: 身体的エージェントは構造化された世界で動作し、しばしば空間的、時間的、置換的な対称性でタスクを解く。
本稿では,モデルに基づく強化学習のためのアルゴリズムであるEquivariant diffuser for Generating Interactions (EDGI)を紹介する。
EDGI は非同変モデルよりもかなり効率的なサンプルであり、対称性群全体にわたってより一般化される。
- 参考スコア(独自算出の注目度): 17.931089055248062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Embodied agents operate in a structured world, often solving tasks with
spatial, temporal, and permutation symmetries. Most algorithms for planning and
model-based reinforcement learning (MBRL) do not take this rich geometric
structure into account, leading to sample inefficiency and poor generalization.
We introduce the Equivariant Diffuser for Generating Interactions (EDGI), an
algorithm for MBRL and planning that is equivariant with respect to the product
of the spatial symmetry group SE(3), the discrete-time translation group Z, and
the object permutation group Sn. EDGI follows the Diffuser framework (Janner et
al., 2022) in treating both learning a world model and planning in it as a
conditional generative modeling problem, training a diffusion model on an
offline trajectory dataset. We introduce a new SE(3)xZxSn-equivariant diffusion
model that supports multiple representations. We integrate this model in a
planning loop, where conditioning and classifier guidance let us softly break
the symmetry for specific tasks as needed. On object manipulation and
navigation tasks, EDGI is substantially more sample efficient and generalizes
better across the symmetry group than non-equivariant models.
- Abstract(参考訳): 身体的エージェントは構造化された世界で動作し、しばしば空間的、時間的、置換対称性を持つタスクを解く。
計画とモデルベース強化学習(MBRL)のためのほとんどのアルゴリズムは、このリッチな幾何学的構造を考慮に入れておらず、サンプルの非効率性と一般化が不十分である。
本稿では,空間対称性群se(3),離散時間変換群z,オブジェクト置換群snの積に対して同変であるmbrlのアルゴリズムであるインタラクション生成のための同変ディフューザ(edgi)について述べる。
EDGIは、Diffuserフレームワーク(Janner et al., 2022)に従って、世界モデルを学習し、それを条件付き生成モデリング問題として計画し、オフライン軌跡データセット上で拡散モデルを訓練する。
複数の表現をサポートする新しいSE(3)xZxSn同変拡散モデルを導入する。
このモデルを計画ループに統合し、条件付けと分類のガイダンスにより、必要に応じて特定のタスクの対称性を柔軟に壊すことができます。
オブジェクト操作やナビゲーションタスクでは、edgiは実質的にサンプル効率が良く、非同値なモデルよりも対称性群をまたいで一般化する。
関連論文リスト
- SIGMA: Scale-Invariant Global Sparse Shape Matching [50.385414715675076]
非剛体形状の正確なスパース対応を生成するための新しい混合整数プログラミング(MIP)法を提案する。
いくつかの挑戦的な3Dデータセットに対して,スパースな非剛性マッチングの最先端結果を示す。
論文 参考訳(メタデータ) (2023-08-16T14:25:30Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Oracle-Preserving Latent Flows [58.720142291102135]
我々はラベル付きデータセット全体にわたって複数の非自明な連続対称性を同時に発見するための方法論を開発する。
対称性変換と対応するジェネレータは、特別に構築された損失関数で訓練された完全連結ニューラルネットワークでモデル化される。
この研究における2つの新しい要素は、縮小次元の潜在空間の使用と、高次元のオラクルに関して不変な変換への一般化である。
論文 参考訳(メタデータ) (2023-02-02T00:13:32Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Instance-aware Model Ensemble With Distillation For Unsupervised Domain
Adaptation [28.79286984013436]
本稿では,新しいフレームワーク,すなわち IMED を用いたモデルアンサンブルを提案する。
IMEDは複数のUDAコンポーネントモデルを異なるインスタンスに応じて適応的に融合し、これらのコンポーネントを小さなモデルに蒸留する。
本稿では, IMEDに基づくモデルと, 同等の計算コスト下での最先端技術について述べる。
論文 参考訳(メタデータ) (2022-11-15T12:53:23Z) - Architectural Optimization over Subgroups for Equivariant Neural
Networks [0.0]
準同値緩和同型と$[G]$-mixed同変層を提案し、部分群上の同値制約で演算する。
進化的および微分可能なニューラルアーキテクチャ探索(NAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-11T14:37:29Z) - Data-driven Control of Agent-based Models: an Equation/Variable-free
Machine Learning Approach [0.0]
複雑/マルチスケールシステムの集合力学を制御するための方程式/変数自由機械学習(EVFML)フレームワークを提案する。
提案手法は3段階からなる: (A) 高次元エージェントベースシミュレーション、機械学習(特に非線形多様体学習(DM))
創発力学の数値分岐解析を行うために方程式のない手法を用いる。
我々は,エージェントをベースとしたシミュレータを本質的で不正確に知られ,創発的なオープンループ定常状態に駆動する,データ駆動型組込み洗浄制御器を設計する。
論文 参考訳(メタデータ) (2022-07-12T18:16:22Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - BasisVAE: Translation-invariant feature-level clustering with
Variational Autoencoders [9.51828574518325]
変分オートエンコーダ(VAE)は、非線形次元削減のための柔軟でスケーラブルなフレームワークを提供する。
崩壊した変分推論スキームがBasisVAEのスケーラブルかつ効率的な推論にどのように寄与するかを示す。
論文 参考訳(メタデータ) (2020-03-06T23:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。