論文の概要: GBPP: Grasp-Aware Base Placement Prediction for Robots via Two-Stage Learning
- arxiv url: http://arxiv.org/abs/2509.11594v1
- Date: Mon, 15 Sep 2025 05:25:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.157818
- Title: GBPP: Grasp-Aware Base Placement Prediction for Robots via Two-Stage Learning
- Title(参考訳): GBPP:二段階学習によるロボットのグラフ認識ベース配置予測
- Authors: Jizhuo Chen, Diwen Liu, Jiaming Wang, Harold Soh,
- Abstract要約: GBPPは高速学習ベースのスコアラーで、単一のRGBDスナップショットから把握するロボットベースのポーズを選択する。
本手法では,(1) 簡易な距離可視ルールが大規模データセットを低コストで自動ラベルし,(2) より小さな高忠実度シミュレーション試行によって,真の把握結果に適合するモデルが洗練される,という2段階のカリキュラムを用いている。
- 参考スコア(独自算出の注目度): 10.736029638634504
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: GBPP is a fast learning based scorer that selects a robot base pose for grasping from a single RGB-D snapshot. The method uses a two stage curriculum: (1) a simple distance-visibility rule auto-labels a large dataset at low cost; and (2) a smaller set of high fidelity simulation trials refines the model to match true grasp outcomes. A PointNet++ style point cloud encoder with an MLP scores dense grids of candidate poses, enabling rapid online selection without full task-and-motion optimization. In simulation and on a real mobile manipulator, GBPP outperforms proximity and geometry only baselines, choosing safer and more reachable stances and degrading gracefully when wrong. The results offer a practical recipe for data efficient, geometry aware base placement: use inexpensive heuristics for coverage, then calibrate with targeted simulation.
- Abstract(参考訳): GBPPは高速学習ベースのスコアラーで、単一のRGB-Dスナップショットから把握するためのロボットベースのポーズを選択する。
本手法は,(1) 簡易な距離可視ルールが大規模データセットを低コストで自動ラベルし,(2) より小さな高忠実度シミュレーション試行によって,真の把握結果に適合するモデルが洗練される,という2段階のカリキュラムを用いている。
MLPを持つPointNet++スタイルのポイントクラウドエンコーダは、候補ポーズの高密度グリッドをスコアし、タスク・アンド・モーションの完全な最適化なしに、迅速なオンライン選択を可能にする。
シミュレーションや実際の移動マニピュレータでは、GBPPは近接と幾何学のみのベースラインを上回り、より安全で到達可能な姿勢を選択し、間違った場合には優雅に劣化する。
その結果、データ効率が良く、幾何に敏感な基礎配置の実践的なレシピが提供され、カバー範囲に安価なヒューリスティックを使用し、ターゲットとするシミュレーションで校正する。
関連論文リスト
- LifelongPR: Lifelong point cloud place recognition based on sample replay and prompt learning [15.464706470200337]
本稿では,PCPRのための新しい連続学習フレームワークであるLifelongPRを提案する。
LifelongPRは、シーケンシャルポイントクラウドデータから知識を効果的に抽出し、融合する。
提案手法はmIR@1の6.50%,mR@1の7.96%,Fの8.95%削減を実現する。
論文 参考訳(メタデータ) (2025-07-14T08:13:33Z) - ReGUIDE: Data Efficient GUI Grounding via Spatial Reasoning and Search [53.40810298627443]
ReGUIDEは、MLLMが自己生成的推論と空間認識的批判を通じてデータを効率的に学習することを可能にするWebグラウンドのためのフレームワークである。
実験により、ReGUIDEは複数のベンチマークでWebグラウンド性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-05-21T08:36:18Z) - Micro-Structures Graph-Based Point Cloud Registration for Balancing Efficiency and Accuracy [5.70403503863614]
マイクロ構造グラフに基づくグローバルポイントクラウド登録手法を提案する。
提案手法は3DMatch と ETH のデータセットでよく機能する。
論文 参考訳(メタデータ) (2024-10-29T08:36:23Z) - Learning Optimal Linear Precoding for Cell-Free Massive MIMO with GNN [15.271970287767164]
実用的なシステムで要求される1~2ミリ秒の時間予算で計算できるグラフニューラルネットワーク(GNN)を開発した。
本稿では,AP と UE の数が異なる様々なシナリオにおいて,ほぼ最適なスペクトル効率を実現することを示す。
論文 参考訳(メタデータ) (2024-06-06T19:29:33Z) - Deep-PE: A Learning-Based Pose Evaluator for Point Cloud Registration [35.77554768853786]
Deep-PEは、ポーズ選択の精度を高めるために設計された、軽量で学習ベースのポーズ評価器である。
我々のネットワークは、ポイントクラウドのアライメント状態をシミュレートし、学習するために、Pose-Aware Attention (PAA)モジュールを組み込んでいる。
Deep-PEは、登録リコールにおいて、最先端の手法を少なくとも8%と11%で大幅に上回っている。
論文 参考訳(メタデータ) (2024-05-25T06:32:32Z) - SIMPL: A Simple and Efficient Multi-agent Motion Prediction Baseline for
Autonomous Driving [27.776472262857045]
本稿では,自動運転車のための簡易かつ効率的な運動予測ベースライン(SIMPL)を提案する。
メッセージ転送を対称的に行う,コンパクトで効率的なグローバル機能融合モジュールを提案する。
強力なベースラインとして、SIMPLはArgoverse 1と2のモーション予測ベンチマークで高い競争性能を示す。
論文 参考訳(メタデータ) (2024-02-04T15:07:49Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z) - RPM-Net: Robust Point Matching using Learned Features [79.52112840465558]
RPM-Netは、より敏感で、より堅牢なディープラーニングベースのアプローチである。
既存の方法とは異なり、我々のRPM-Netは、部分的な可視性を備えた対応や点雲の欠如を処理します。
論文 参考訳(メタデータ) (2020-03-30T13:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。