論文の概要: Development of a PPO-Reinforcement Learned Walking Tripedal Soft-Legged Robot using SOFA
- arxiv url: http://arxiv.org/abs/2504.09242v1
- Date: Sat, 12 Apr 2025 14:46:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:50:15.207107
- Title: Development of a PPO-Reinforcement Learned Walking Tripedal Soft-Legged Robot using SOFA
- Title(参考訳): SOFAを用いた三足歩行3足歩行ロボットPPO強化の開発
- Authors: Yomna Mokhtar, Tarek Shohdy, Abdallah A. Hassan, Mostafa Eshra, Omar Elmenawy, Osama Khalil, Haitham El-Hussieny,
- Abstract要約: 本稿では,PPO-RLに基づく歩行・三脚・軟脚ロボットを提案する。
1つのゴールを達成するのに成功率82%は、画期的なアウトプットです。
プラットフォームステップを追尾しながら、累積2乗誤差偏差19mmで、より優れた発見が観察されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Rigid robots were extensively researched, whereas soft robotics remains an underexplored field. Utilizing soft-legged robots in performing tasks as a replacement for human beings is an important stride to take, especially under harsh and hazardous conditions over rough terrain environments. For the demand to teach any robot how to behave in different scenarios, a real-time physical and visual simulation is essential. When it comes to soft robots specifically, a simulation framework is still an arduous problem that needs to be disclosed. Using the simulation open framework architecture (SOFA) is an advantageous step. However, neither SOFA's manual nor prior public SOFA projects show its maximum capabilities the users can reach. So, we resolved this by establishing customized settings and handling the framework components appropriately. Settling on perfect, fine-tuned SOFA parameters has stimulated our motivation towards implementing the state-of-the-art (SOTA) reinforcement learning (RL) method of proximal policy optimization (PPO). The final representation is a well-defined, ready-to-deploy walking, tripedal, soft-legged robot based on PPO-RL in a SOFA environment. Robot navigation performance is a key metric to be considered for measuring the success resolution. Although in the simulated soft robots case, an 82\% success rate in reaching a single goal is a groundbreaking output, we pushed the boundaries to further steps by evaluating the progress under assigning a sequence of goals. While trailing the platform steps, outperforming discovery has been observed with an accumulative squared error deviation of 19 mm. The full code is publicly available at \href{https://github.com/tarekshohdy/PPO_SOFA_Soft_Legged_Robot.git}{github.com/tarekshohdy/PPO$\textunderscore$SOFA$\textunderscore$Soft$\textunderscore$Legged$\textund erscore$ Robot.git}
- Abstract(参考訳): 剛体ロボットは広範囲に研究されたが、ソフトロボティクスは未調査の分野である。
ソフトレッグロボットを人間の代わりとしてタスクの実行に利用することは、特に荒れた地形環境に対して厳しい危険な状況下において、重要な取り組みである。
あらゆるロボットに異なるシナリオで振る舞い方を教えるために、リアルタイムの物理的および視覚的なシミュレーションが不可欠である。
ソフトロボットに関して言えば、シミュレーションフレームワークはいまだに難しい問題であり、開示する必要がある。
シミュレーションオープンフレームワークアーキテクチャ(SOFA)を使用することは、有利なステップです。
しかし、SOFAのマニュアルも以前の公開SOFAプロジェクトも、ユーザーが到達できる最大の能力を示していない。
そこで私たちは、カスタマイズされた設定を確立し、フレームワークコンポーネントを適切に処理することで、この問題を解決しました。
完全かつ微調整されたSOFAパラメータに設定することで、近親政策最適化(PPO)の最先端(SOTA)強化学習(RL)手法の実装への動機づけが促進された。
最終表現は、SOFA環境でのPPO-RLに基づく、正確に定義された、準備の整った歩行、三脚、軟脚ロボットである。
ロボットナビゲーション性能は、成功度を測定する上で考慮すべき重要な指標である。
シミュレーションソフトロボットの場合,1つの目標を達成する際の成功率82\%は画期的な出力であるが,目標の順序を割り振ったままの進捗を評価することで,限界を更なるステップに推し進めた。
プラットフォームステップを追尾しながら、累積2乗誤差偏差19mmで、より優れた発見が観察されている。
完全なコードは \href{https://github.com/tarekshohdy/PPO_SOFA_Soft_Legged_Robot.git}{github.com/tarekshohdy/PPO$\textunderscore$SOFA$\textunderscore$Soft$\textunderscore$Legged$\textund erscore$Robot.git} で公開されている。
関連論文リスト
- The One RING: a Robotic Indoor Navigation Generalist [58.431772508378344]
RING (Robotic Indoor Navigation Generalist) は、インボディーズ・アグノースティックな政策である。
様々なランダムなエンボディメントを大規模に組み込んだシミュレーションでのみ訓練される。
5つのシミュレーションと4つのロボットプラットフォームで平均72.1%と78.9%の成功率を達成した。
論文 参考訳(メタデータ) (2024-12-18T23:15:41Z) - GRUtopia: Dream General Robots in a City at Scale [65.08318324604116]
本稿では,各種ロボットを対象とした対話型3D社会「GRUtopia」について紹介する。
GRScenesには100万のインタラクティブな微妙な注釈付きシーンが含まれており、都市規模の環境に自由に組み合わせることができる。
GRResidentsはLarge Language Model (LLM)によって駆動されるNon-Player Character (NPC)システムである。
論文 参考訳(メタデータ) (2024-07-15T17:40:46Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement Learning [82.46975428739329]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Reinforcement Learning with Foundation Priors: Let the Embodied Agent Efficiently Learn on Its Own [59.11934130045106]
我々は、政策、価値、成功-回帰基盤モデルからのガイダンスとフィードバックを活用するために、RLFP(Reinforcement Learning with Foundation Priors)を提案する。
本フレームワークでは,自動報酬関数を用いてより効率的にエージェントを探索できるファウンデーション誘導型アクター・クリティカル(FAC)アルゴリズムを導入する。
本手法は,実ロボットとシミュレーションの両方において,様々な操作タスクにおいて顕著な性能を実現する。
論文 参考訳(メタデータ) (2023-10-04T07:56:42Z) - Learning Bipedal Walking for Humanoids with Current Feedback [5.429166905724048]
アクチュエータレベルでの不正確なトルクトラッキングから生じるヒューマノイドロボットのシム2リアルギャップ問題を克服するためのアプローチを提案する。
提案手法は、実際のHRP-5Pヒューマノイドロボットに展開して二足歩行を実現するシミュレーションにおいて、一貫したエンドツーエンドのポリシーをトレーニングする。
論文 参考訳(メタデータ) (2023-03-07T08:16:46Z) - Obstacle Avoidance for Robotic Manipulator in Joint Space via Improved
Proximal Policy Optimization [6.067589886362815]
本稿では,6-DoFマニピュレータのタスク空間から関節空間にマップするために,改良されたPPOアルゴリズムを用いて深層ニューラルネットワークを訓練する。
実ロボットでそのようなタスクを訓練するのは時間を要するので、モデルを訓練するためのシミュレーション環境を開発する。
実験結果から,ロボットは非構造環境下で1つの目標をトラッキングしたり,複数の目標に到達することができた。
論文 参考訳(メタデータ) (2022-10-03T10:21:57Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - A Learning Approach to Robot-Agnostic Force-Guided High Precision
Assembly [6.062589413216726]
本稿では,高精度なロボット組立問題に対する学習手法を提案する。
組立部品が互いに密接な接触関係にあるような,コンタクトリッチなフェーズに着目する。
私たちのトレーニング環境は、エンドエフェクターが特定のロボットにアタッチされないため、ロボットレスです。
論文 参考訳(メタデータ) (2020-10-15T22:33:43Z) - Smooth Exploration for Robotic Reinforcement Learning [11.215352918313577]
強化学習(Reinforcement Learning, RL)は、ロボットが現実世界との対話からスキルを学ぶことを可能にする。
実際には、Deep RLで使用される非構造的なステップベースの探索は、実際のロボットにジャーキーな動きパターンをもたらす。
本稿では、状態依存探索(SDE)を現在のDeep RLアルゴリズムに適応させることにより、これらの問題に対処する。
論文 参考訳(メタデータ) (2020-05-12T12:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。