論文の概要: Integrating Symmetry into Differentiable Planning
- arxiv url: http://arxiv.org/abs/2206.03674v1
- Date: Wed, 8 Jun 2022 04:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 13:15:10.068340
- Title: Integrating Symmetry into Differentiable Planning
- Title(参考訳): 異種計画への対称性の統合
- Authors: Linfeng Zhao, Xupeng Zhu, Lingzhi Kong, Robin Walters, Lawson L.S.
Wong
- Abstract要約: グループ対称性は、エンドツーエンドの微分可能計画アルゴリズムにおけるデータ効率と一般化にどのように役立つかを検討する。
ナビゲーションと操作のアルゴリズムは、与えられた地図や学習された地図を用いて、非同変マップよりも大きなマージンで訓練効率と一般化性能を向上させる。
- 参考スコア(独自算出の注目度): 5.916280909373456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study how group symmetry helps improve data efficiency and generalization
for end-to-end differentiable planning algorithms, specifically on 2D robotic
path planning problems: navigation and manipulation. We first formalize the
idea from Value Iteration Networks (VINs) on using convolutional networks for
path planning, because it avoids explicitly constructing equivalence classes
and enable end-to-end planning. We then show that value iteration can always be
represented as some convolutional form for (2D) path planning, and name the
resulting paradigm Symmetric Planner (SymPlan). In implementation, we use
steerable convolution networks to incorporate symmetry. Our algorithms on
navigation and manipulation, with given or learned maps, improve training
efficiency and generalization performance by large margins over non-equivariant
counterparts, VIN and GPPN.
- Abstract(参考訳): グループ対称性がデータ効率とエンドツーエンドの微分可能計画アルゴリズムの一般化にどのように役立つか,特に2次元ロボット経路計画問題(ナビゲーションと操作)について検討する。
まず,等価クラスを明示的に構築することを避け,エンドツーエンドの計画を可能にするため,畳み込みネットワークを経路計画に使用する際の値反復ネットワーク(value iteration network,vins)からアイデアを定式化する。
次に、(2D)パス計画のための畳み込み形式として、常に価値イテレーションを表現できることを示し、結果のパラダイムであるSymmetric Planner(SymPlan)を名付ける。
実装では、ステアブル畳み込みネットワークを用いて対称性を組み込む。
ナビゲーションと操作のアルゴリズムは、与えられた地図や学習された地図を用いて、VINとGPPNの非同種よりも大きなマージンで訓練効率と一般化性能を向上させる。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - SBDet: A Symmetry-Breaking Object Detector via Relaxed Rotation-Equivariance [26.05910177212846]
Group Equivariant Convolution(GConv)は、モデルに視覚データに隠された対称性を探索させ、パフォーマンスを向上させる。
従来のGConv法は群空間の厳密な操作規則によって制限されており、対称性・ブレーキングや非剛体変換への適応が困難である。
本稿では,Relaxed Rotation-Equivariant Network(R2Net)をバックボーンとして提案し,その上に構築された2次元オブジェクト検出のためのSBDet(Symmetry-Breaking Object Detector)を開発した。
論文 参考訳(メタデータ) (2024-08-21T16:32:03Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Equivariant Ensembles and Regularization for Reinforcement Learning in Map-based Path Planning [5.69473229553916]
本稿では,特定のニューラルネットワーク成分を使わずに,同変ポリシーと不変値関数を構築する手法を提案する。
等変アンサンブルと正則化がサンプル効率と性能にどのような影響を与えるかを示す。
論文 参考訳(メタデータ) (2024-03-19T16:01:25Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Can Euclidean Symmetry be Leveraged in Reinforcement Learning and
Planning? [5.943193860994729]
ロボットの作業では、参照フレームの変化は一般にシステムの基盤となる物理的特性に影響を与えない。
我々は、強化学習、計画、最適制御における離散的かつ連続的な対称性に関する先行研究を統一する理論を提唱した。
論文 参考訳(メタデータ) (2023-07-17T04:01:48Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Oracle-Preserving Latent Flows [58.720142291102135]
我々はラベル付きデータセット全体にわたって複数の非自明な連続対称性を同時に発見するための方法論を開発する。
対称性変換と対応するジェネレータは、特別に構築された損失関数で訓練された完全連結ニューラルネットワークでモデル化される。
この研究における2つの新しい要素は、縮小次元の潜在空間の使用と、高次元のオラクルに関して不変な変換への一般化である。
論文 参考訳(メタデータ) (2023-02-02T00:13:32Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Encoding Involutory Invariance in Neural Networks [1.6371837018687636]
ある状況では、ニューラルネットワーク(NN)は、基礎となる物理対称性に従うデータに基づいて訓練される。
本研究では、関数がパリティまでのインボリュート線型/ファイン変換に対して不変な特別な対称性について検討する。
数値実験により,提案モデルが与えられた対称性を尊重しながらベースラインネットワークより優れていたことが示唆された。
また,本手法を水平/垂直反射対称性を持つデータセットに対する畳み込みNN分類タスクに適用する手法も提案されている。
論文 参考訳(メタデータ) (2021-06-07T16:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。