論文の概要: Equivariant Volumetric Grasping
- arxiv url: http://arxiv.org/abs/2507.18847v2
- Date: Tue, 05 Aug 2025 12:56:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 15:23:34.757038
- Title: Equivariant Volumetric Grasping
- Title(参考訳): 等変体積グラスピング
- Authors: Pinhao Song, Yutong Hu, Pengteng Li, Renaud Detry,
- Abstract要約: 垂直軸まわりの回転に同値な新しい容積グリップモデルを提案する。
提案したプロジェクションベース設計は,計算コストとメモリコストの両方を大幅に削減することを示す。
- 参考スコア(独自算出の注目度): 2.9144754050161503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new volumetric grasp model that is equivariant to rotations around the vertical axis, leading to a significant improvement in sample efficiency. Our model employs a tri-plane volumetric feature representation -- i.e., the projection of 3D features onto three canonical planes. We introduce a novel tri-plane feature design in which features on the horizontal plane are equivariant to 90{\deg} rotations, while the sum of features from the other two planes remains invariant to the same transformations. This design is enabled by a new deformable steerable convolution, which combines the adaptability of deformable convolutions with the rotational equivariance of steerable ones. This allows the receptive field to adapt to local object geometry while preserving equivariance properties. We further develop equivariant adaptations of two state-of-the-art volumetric grasp planners, GIGA and IGD. Specifically, we derive a new equivariant formulation of IGD's deformable attention mechanism and propose an equivariant generative model of grasp orientations based on flow matching. We provide a detailed analytical justification of the proposed equivariance properties and validate our approach through extensive simulated and real-world experiments. Our results demonstrate that the proposed projection-based design significantly reduces both computational and memory costs. Moreover, the equivariant grasp models built on top of our tri-plane features consistently outperform their non-equivariant counterparts, achieving higher performance with only a modest computational overhead. Video and code can be viewed in: https://mousecpn.github.io/evg-page/
- Abstract(参考訳): 本研究では,垂直軸まわりの回転に同値な新しい容積グリップモデルを提案し,試料効率を大幅に向上させた。
我々のモデルは3次元の標準平面上の3次元特徴の投影という3次元の体積的特徴表現を用いている。
水平面上の特徴が90{\deg}回転に同値であるのに対して、他の2面からの特徴の総和は同じ変換に不変であるような、新しい三面的特徴設計を導入する。
この設計は、新しい変形可能なステアブル・コンボリューションによって実現され、変形可能な畳み込みの適応性と、操舵可能なコンボリューションの回転同値性を組み合わせたものである。
これにより、受容場は同値性を保持しながら局所対象幾何学に適応することができる。
さらに、GIGAとIGDという2つの最先端の容積グリッププランナーの同変適応法を開発した。
具体的には、IGDの変形可能なアテンション機構の新しい同変式を導出し、フローマッチングに基づくグリップ配向の同変生成モデルを提案する。
提案した同値性に関する詳細な解析的正当性を提供し、広範囲なシミュレートおよび実世界の実験を通して、我々のアプローチを検証する。
提案したプロジェクションベース設計は,計算コストとメモリコストの両方を大幅に削減することを示す。
さらに、我々の三面体上に構築された同変グリップモデルは、その非同変モデルよりも一貫して優れており、計算オーバーヘッドをわずかに抑えながら高い性能を達成している。
https://mousecpn.github.io/evg-page/
関連論文リスト
- Geometric Algebra Planes: Convex Implicit Neural Volumes [70.12234371845445]
GA-Planes はスパース低ランク係数と低分解能行列と等価であることを示す。
また,GA-Planeは既存の表現にも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-20T18:21:58Z) - Equivariant Spatio-Temporal Self-Supervision for LiDAR Object Detection [37.142470149311904]
本研究では,空間的および時間的拡張を両立させることにより,時間的同変学習の枠組みを提案する。
既存の等変および不変のアプローチを多くの設定で上回る3次元物体検出のための事前学習法を示す。
論文 参考訳(メタデータ) (2024-04-17T20:41:49Z) - Learning Modulated Transformation in GANs [69.95217723100413]
生成逆数ネットワーク(GAN)のジェネレータに、変調変換モジュール(Modulated transformation module, MTM)と呼ばれるプラグアンドプレイモジュールを装備する。
MTMは、可変位置で畳み込み操作を適用可能な潜在符号の制御下で空間オフセットを予測する。
挑戦的なTaiChiデータセット上での人為的な生成に向けて、StyleGAN3のFIDを21.36から13.60に改善し、変調幾何変換の学習の有効性を実証した。
論文 参考訳(メタデータ) (2023-08-29T17:51:22Z) - Category-Level 6D Object Pose Estimation with Flexible Vector-Based
Rotation Representation [51.67545893892129]
モノクロRGB-D画像からカテゴリレベルの6次元ポーズとサイズ推定のための新しい3次元グラフ畳み込みに基づくパイプラインを提案する。
まず,3次元グラフ畳み込みを用いた向き対応オートエンコーダの設計を行った。
そして, 回転情報を潜在特徴から効率的に復号化するために, フレキシブルなベクトルベースデコンポーザブルな回転表現を設計する。
論文 参考訳(メタデータ) (2022-12-09T02:13:43Z) - In Search of Projectively Equivariant Networks [14.275801110186885]
本稿では,プロジェクティブ同変ニューラルネットワークを構築する方法を提案する。
線形層からネットワークを構築する場合,我々のアプローチが最も一般的に可能であることを示す。
論文 参考訳(メタデータ) (2022-09-29T12:26:18Z) - Equiformer: Equivariant Graph Attention Transformer for 3D Atomistic
Graphs [3.0603554929274908]
3D関連誘導バイアスは、分子のような3D原子性グラフで動作するグラフニューラルネットワークには不可欠である。
様々な領域におけるトランスフォーマーの成功に触発されて、これらのインダクティブバイアスをトランスフォーマーに組み込む方法について研究する。
本稿では,Transformerアーキテクチャの強みを利用したグラフニューラルネットワークであるEquiformerを提案する。
論文 参考訳(メタデータ) (2022-06-23T21:40:37Z) - Learning Symmetric Embeddings for Equivariant World Models [9.781637768189158]
入力空間(例えば画像)を符号化する学習対称埋め込みネットワーク(SEN)を提案する。
このネットワークは、同変のタスクネットワークでエンドツーエンドにトレーニングして、明示的に対称な表現を学ぶことができる。
実験により、SENは複素対称性表現を持つデータへの同変ネットワークの適用を促進することを示した。
論文 参考訳(メタデータ) (2022-04-24T22:31:52Z) - 3D Equivariant Graph Implicit Functions [51.5559264447605]
局所的詳細のモデリングを容易にする同変層を持つグラフ暗黙関数の新しいファミリを導入する。
提案手法は,ShapeNet再構成作業において既存の回転同変暗黙関数を0.69から0.89に改善する。
論文 参考訳(メタデータ) (2022-03-31T16:51:25Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Equivariant Point Network for 3D Point Cloud Analysis [17.689949017410836]
点雲解析のための実効的で実用的なSE(3)(3次元翻訳と回転)同変ネットワークを提案する。
まず,6次元の畳み込みを2つの分離可能な畳み込み作用素に分解する新しい枠組みであるSE(3)分離点畳み込みを提案する。
第2に,同変特徴の表現性を効果的に活用するアテンション層を導入する。
論文 参考訳(メタデータ) (2021-03-25T21:57:10Z) - Rotation-Invariant Point Convolution With Multiple Equivariant
Alignments [1.0152838128195467]
回転同変アライメントを用いることで、任意の畳み込み層を回転不変にすることができることを示す。
このコア層では、オブジェクト分類とセマンティックセグメンテーションの両方における最先端の結果を改善する回転不変アーキテクチャを設計します。
論文 参考訳(メタデータ) (2020-12-07T20:47:46Z) - SE(3)-Transformers: 3D Roto-Translation Equivariant Attention Networks [71.55002934935473]
連続的な3次元ロト変換の下で同変である3次元点雲とグラフに対する自己アテンションモジュールの変種であるSE(3)-Transformerを導入する。
我々は, 入力の回転下での予測の頑健性を示す, おもちゃのN体粒子シミュレーションデータセットを用いて, モデルの評価を行った。
論文 参考訳(メタデータ) (2020-06-18T13:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。