論文の概要: RobKiNet: Robotic Kinematics Informed Neural Network for Optimal Robot Configuration Prediction
- arxiv url: http://arxiv.org/abs/2402.16281v2
- Date: Tue, 04 Mar 2025 07:06:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:09:44.474954
- Title: RobKiNet: Robotic Kinematics Informed Neural Network for Optimal Robot Configuration Prediction
- Title(参考訳): RobKiNet: 最適ロボット構成予測のためのロボットキネマティックインフォームドニューラルネットワーク
- Authors: Yanlong Peng, Zhigang Wang, Yisheng Zhang, Pengxu Chang, Ziwen He, Kai Gu, Hongshen Zhang, Ming Chen,
- Abstract要約: タスク・アンド・モーション・プランニング(TAMP)は、ロボットが世界と対話し、複雑なタスクを遂行するために不可欠である。
本稿では,タスク層と動作層の間のブリッジとして,ロボットキネマティクスインフォームドニューラルネットワーク(RobKiNet)というフレームワークを提案する。
RobKiNetは、キネマティック知識をニューラルネットワークに統合し、効率的な構成予測が可能なモデルをトレーニングする。
- 参考スコア(独自算出の注目度): 5.570224095327175
- License:
- Abstract: Task and Motion Planning (TAMP) is essential for robots to interact with the world and accomplish complex tasks. The TAMP problem involves a critical gap: exploring the robot's configuration parameters (such as chassis position and robotic arm joint angles) within continuous space to ensure that task-level global constraints are met while also enhancing the efficiency of subsequent motion planning. Existing methods still have significant room for improvement in terms of efficiency. Recognizing that robot kinematics is a key factor in motion planning, we propose a framework called the Robotic Kinematics Informed Neural Network (RobKiNet) as a bridge between task and motion layers. RobKiNet integrates kinematic knowledge into neural networks to train models capable of efficient configuration prediction. We designed a Chassis Motion Predictor(CMP) and a Full Motion Predictor(FMP) using RobKiNet, which employed two entirely different sets of forward and inverse kinematics constraints to achieve loosely coupled control and whole-body control, respectively. Experiments demonstrate that CMP and FMP can predict configuration parameters with 96.67% and 98% accuracy, respectively. That means that the corresponding motion planning can achieve a speedup of 24.24x and 153x compared to random sampling. Furthermore, RobKiNet demonstrates remarkable data efficiency. CMP only requires 1/71 and FMP only requires 1/15052 of the training data for the same prediction accuracy compared to other deep learning methods. These results demonstrate the great potential of RoboKiNet in robot applications.
- Abstract(参考訳): タスク・アンド・モーション・プランニング(TAMP)は、ロボットが世界と対話し、複雑なタスクを遂行するために不可欠である。
ロボットの構成パラメータ(シャシー位置やロボットアームの関節角度など)を連続空間内で探索することで、タスクレベルのグローバルな制約を満たすと同時に、その後の動作計画の効率を向上する。
既存の方法には、効率の面で大きな改善の余地がある。
ロボットキネマティクスが運動計画の重要な要素であることを認識し,ロボットキネマティクスインフォーマティクスニューラルネットワーク(RobKiNet)と呼ばれるフレームワークをタスク層と動作層の間のブリッジとして提案する。
RobKiNetは、キネマティック知識をニューラルネットワークに統合し、効率的な構成予測が可能なモデルをトレーニングする。
我々はRobKiNetを用いたCMP(Chassis Motion Predictor)とFMP(Full Motion Predictor)を設計した。
CMPとFMPは、それぞれ96.67%と98%の精度で構成パラメータを予測できることを示した。
つまり、対応する動きプランニングは、ランダムサンプリングと比較して24.24xと153xのスピードアップを達成することができる。
さらに、RobKiNetは素晴らしいデータ効率を示している。
CMPは1/71、FMPは1/15052のトレーニングデータしか必要としない。
これらの結果はロボット応用におけるRoboKiNetの大きな可能性を示している。
関連論文リスト
- SpatialVLA: Exploring Spatial Representations for Visual-Language-Action Model [45.03115608632622]
空間理解はロボット操作のキーポイントです
本研究では,ロボット基盤モデルのための効果的な空間表現を探索する空間VLAを提案する。
提案したAdaptive Action Gridsは,事前学習したSpatialVLAモデルを微調整し,新しいシミュレーションと実世界のセットアップを実現するための,新しい効果的な方法を提供する。
論文 参考訳(メタデータ) (2025-01-27T07:34:33Z) - FAST: Efficient Action Tokenization for Vision-Language-Action Models [98.15494168962563]
離散コサイン変換に基づくロボット動作のための圧縮に基づく新しいトークン化手法を提案する。
FASTをベースとしたFAST+は,100万個のリアルロボットアクショントラジェクトリに基づいて訓練されたユニバーサルロボットアクショントークンである。
論文 参考訳(メタデータ) (2025-01-16T18:57:04Z) - LPAC: Learnable Perception-Action-Communication Loops with Applications
to Coverage Control [80.86089324742024]
本稿では,その問題に対する学習可能なパーセプション・アクション・コミュニケーション(LPAC)アーキテクチャを提案する。
CNNは局所認識を処理する。グラフニューラルネットワーク(GNN)はロボットのコミュニケーションを促進する。
評価の結果,LPACモデルは標準分散型および集中型カバレッジ制御アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-01-10T00:08:00Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Learning Bipedal Walking for Humanoids with Current Feedback [5.429166905724048]
アクチュエータレベルでの不正確なトルクトラッキングから生じるヒューマノイドロボットのシム2リアルギャップ問題を克服するためのアプローチを提案する。
提案手法は、実際のHRP-5Pヒューマノイドロボットに展開して二足歩行を実現するシミュレーションにおいて、一貫したエンドツーエンドのポリシーをトレーニングする。
論文 参考訳(メタデータ) (2023-03-07T08:16:46Z) - Active Exploration for Robotic Manipulation [40.39182660794481]
本稿では,スパース・リワード型ロボット操作作業における効率的な学習を可能にするモデルに基づく能動探索手法を提案する。
我々は,提案アルゴリズムをシミュレーションおよび実ロボットで評価し,スクラッチから本手法を訓練した。
論文 参考訳(メタデータ) (2022-10-23T18:07:51Z) - Learning over time using a neuromorphic adaptive control algorithm for
robotic arms [0.0]
ロボットアームは操作空間を学習し、時間とともにタスクを完了できることが示される。
また、SNNに基づく適応型ロボット制御アルゴリズムは、エネルギー効率を維持しつつ、迅速な応答を可能にすることを示した。
論文 参考訳(メタデータ) (2022-10-03T21:48:33Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - Intelligent Trajectory Design for RIS-NOMA aided Multi-robot
Communications [59.34642007625687]
目的は,ロボットの軌道とNOMA復号命令を協調的に最適化することで,マルチロボットシステムにおける全軌道の総和率を最大化することである。
ARIMAモデルとDouble Deep Q-network (D$3$QN)アルゴリズムを組み合わせたML方式を提案する。
論文 参考訳(メタデータ) (2022-05-03T17:14:47Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。