論文の概要: A New Software Tool for Generating and Visualizing Robot Self-Collision Matrices
- arxiv url: http://arxiv.org/abs/2512.23140v2
- Date: Tue, 30 Dec 2025 22:46:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.543993
- Title: A New Software Tool for Generating and Visualizing Robot Self-Collision Matrices
- Title(参考訳): ロボットの自己衝突行列の生成と可視化のための新しいソフトウェアツール
- Authors: Roshan Klein-Seetharama, Daniel Rakita,
- Abstract要約: ロボット工学では、与えられたロボットの状態が自己切断(セルフコリジョン・クエリ)をもたらすか、あるいはそのような交差点(セルフプロクシミティ・クエリ)からの距離を評価することが一般的である。
この情報は一般に自己照合行列に符号化され、各エントリ (i, j) は、形状 i と形状 j の間のチェックを行うべきかどうかを示す。
現在のツールは、静的な可視化、近接サポートの欠如、厳密な単一幾何学の仮定、退屈な洗練によって制限されている。
これらを克服するインタラクティブツールを導入する
- 参考スコア(独自算出の注目度): 2.707154152696381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In robotics, it is common to check whether a given robot state results in self-intersection (i.e., a self-collision query) or to assess its distance from such an intersection (i.e., a self-proximity query). These checks are typically performed between pairs of shapes attached to different robot links. However, many of these shape pairs can be excluded in advance, as their configurations are known to always or never result in contact. This information is typically encoded in a self-collision matrix, where each entry (i, j) indicates whether a check should be performed between shape i and shape j. While the MoveIt Setup Assistant is widely used to generate such matrices, current tools are limited by static visualization, lack of proximity support, rigid single-geometry assumptions, and tedious refinement workflows, hindering flexibility and reuse in downstream robotics applications. In this work, we introduce an interactive tool that overcomes these limitations by generating and visualizing self-collision matrices across multiple shape representations, enabling dynamic inspection, filtering, and refinement of shape pairs. Outputs are provided in both JSON and YAML for easy integration. The system is implemented in Rust and uses the Bevy game engine to deliver high-quality visualizations. We demonstrate its effectiveness on multiple robot platforms, showing that matrices generated using diverse shape types yield faster and more accurate self-collision and self-proximity queries.
- Abstract(参考訳): ロボット工学では、与えられたロボット状態が自己切断(自己衝突クエリ)をもたらすか、あるいはそのような交差点(自己衝突クエリ)からの距離を評価することが一般的である。
これらのチェックは通常、異なるロボットリンクに取り付けられた形状のペア間で実行される。
しかしながら、これらの形状ペアの多くは、その構成が常に、または決して接触しないことが知られているため、事前に除外することができる。
この情報は一般に自己照合行列に符号化され、各エントリ (i, j) は、形状 i と形状 j の間のチェックを行うべきかどうかを示す。
MoveIt Setup Assistantはそのような行列を生成するために広く使われているが、現在のツールは静的な可視化、近接サポートの欠如、厳密な単一幾何学の仮定、退屈な洗練されたワークフローによって制限されており、下流のロボティクスアプリケーションにおける柔軟性と再利用を妨げる。
本研究では,複数の形状表現にまたがる自己衝突行列の生成と可視化により,これらの制約を克服し,動的検査,フィルタリング,形状対の洗練を可能にするインタラクティブツールを提案する。
出力はJSONとYAMLの両方で提供され、簡単に統合できる。
このシステムはRustで実装され、Bevyゲームエンジンを使用して高品質な視覚化を提供する。
複数のロボットプラットフォーム上で有効性を示し、多様な形状型を用いて生成した行列がより高速で正確な自己照合および自己確率的クエリを生成することを示した。
関連論文リスト
- Continuum Robot State Estimation with Actuation Uncertainty [10.610593520475357]
本研究では,連続ロボットの原理的リアルタイム推定手法を提案する。
本手法は比較的少ない状態ノードで高い数値精度を実現する。
全体として,本手法は複数の連続ロボットアーキテクチャをまたいだ原理的,リアルタイムな推定を可能にする。
論文 参考訳(メタデータ) (2026-01-08T01:53:42Z) - Vision Transformers are Circulant Attention Learners [30.300457741980846]
自己注意機構は視覚変換器の進歩の鍵となる要素である。
我々は,自己注意の本質的効率的なパターンを生かして,textbfCirculant Attentionと呼ばれる新しい注意パラダイムを提案する。
論文 参考訳(メタデータ) (2025-12-25T07:28:33Z) - rt-RISeg: Real-Time Model-Free Robot Interactive Segmentation for Active Instance-Level Object Understanding [7.264443471771696]
本稿では,ロボット同士の相互作用によって見えない物体を連続的に分割する,新しいリアルタイム対話型知覚フレームワークrt-RISegを提案する。
ランダムにサンプリングされた物体フレームの相対的な回転速度と線形速度は,ロボット同士の相互作用によって,学習されたセグメンテーションモデルなしで物体を識別できることを示す。
本稿では,従来のUOIS法よりも平均物体分割精度を27.5%向上させることにより,対話的知覚法の有効性を示す。
論文 参考訳(メタデータ) (2025-07-14T20:02:52Z) - Learning Video Generation for Robotic Manipulation with Collaborative Trajectory Control [72.00655365269]
本稿では,協調的軌跡定式化を通じてオブジェクト間ダイナミクスをモデル化する新しいフレームワークであるRoboMasterを紹介する。
オブジェクトを分解する従来の方法とは異なり、我々のコアは、相互作用プロセスを3つのサブステージ(相互作用前、相互作用後、相互作用後)に分解することである。
提案手法は既存の手法よりも優れており,ロボット操作のための軌道制御ビデオ生成における最先端性能を確立している。
論文 参考訳(メタデータ) (2025-06-02T17:57:06Z) - Scaling Manipulation Learning with Visual Kinematic Chain Prediction [32.99644520625179]
本研究では,多様な環境下でのロボット学習における準静的動作の高精度かつ普遍的な表現として,視覚キネマティクス連鎖を提案する。
我々は,Calvin,RLBench,Open-X,および実際のロボット操作タスクにおいて,BC変換器に対するVKTの優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-12T03:10:27Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Differentiable and Learnable Robot Models [6.988699529097697]
図書館のEmphDifferentiable Robot Modelsは、Pytorchにおけるロボットのキネマティクスと力学の、EmphdifferentiableモデルとEmphlearnableモデルの両方を実装している。
論文 参考訳(メタデータ) (2022-02-22T22:26:36Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Kimera-Multi: Robust, Distributed, Dense Metric-Semantic SLAM for
Multi-Robot Systems [92.26462290867963]
Kimera-Multiは、最初のマルチロボットシステムであり、不正なインターループとイントラロボットループの閉鎖を識別し拒否することができる。
我々は、フォトリアリスティックシミュレーション、SLAMベンチマークデータセット、地上ロボットを用いて収集された屋外データセットの挑戦において、Kimera-Multiを実証した。
論文 参考訳(メタデータ) (2021-06-28T03:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。