論文の概要: Gazebo Plants: Simulating Plant-Robot Interaction with Cosserat Rods
- arxiv url: http://arxiv.org/abs/2402.02570v1
- Date: Sun, 4 Feb 2024 17:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 18:48:17.087661
- Title: Gazebo Plants: Simulating Plant-Robot Interaction with Cosserat Rods
- Title(参考訳): ガゼボ植物:コセラットロッドとの植物-ロボット相互作用のシミュレーション
- Authors: Junchen Deng and Samhita Marri and Jonathan Klein and Wojtek
Pa{\l}ubicki and S\"oren Pirk and Girish Chowdhary and Dominik L. Michels
- Abstract要約: 植物の動きをモデル化するために,コセラットロッドをベースとしたGazeboシミュレーションプラットフォーム用のプラグインを提案する。
筆者らは,このプラグインを用いて,果実を摘むロボットアームを模擬することにより,ガゼボで収穫シミュレーションを行うことができることを示した。
- 参考スコア(独自算出の注目度): 11.379848739344814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic harvesting has the potential to positively impact agricultural
productivity, reduce costs, improve food quality, enhance sustainability, and
to address labor shortage. In the rapidly advancing field of agricultural
robotics, the necessity of training robots in a virtual environment has become
essential. Generating training data to automatize the underlying computer
vision tasks such as image segmentation, object detection and classification,
also heavily relies on such virtual environments as synthetic data is often
required to overcome the shortage and lack of variety of real data sets.
However, physics engines commonly employed within the robotics community, such
as ODE, Simbody, Bullet, and DART, primarily support motion and collision
interaction of rigid bodies. This inherent limitation hinders experimentation
and progress in handling non-rigid objects such as plants and crops. In this
contribution, we present a plugin for the Gazebo simulation platform based on
Cosserat rods to model plant motion. It enables the simulation of plants and
their interaction with the environment. We demonstrate that, using our plugin,
users can conduct harvesting simulations in Gazebo by simulating a robotic arm
picking fruits and achieve results comparable to real-world experiments.
- Abstract(参考訳): ロボット収穫は農業生産性に肯定的な影響を及ぼし、コストを削減し、食料品質を改善し、持続可能性を高め、労働力不足に対処する可能性がある。
農業ロボティクスの急速に進歩する分野において,仮想環境下でロボットを訓練する必要性が求められている。
イメージセグメンテーション、オブジェクト検出、分類といったコンピュータビジョンのタスクを自動化するトレーニングデータを生成することも、実際のデータセットの不足や欠如を克服するために合成データがしばしば必要となるような仮想環境に大きく依存している。
しかしながら、OD、Simbody、Bullet、DARTといったロボットコミュニティでよく使われている物理エンジンは、主に剛体の動きと衝突の相互作用をサポートする。
この本質的な制限は、植物や作物などの非剛性物質を扱う実験や進歩を妨げる。
本稿では,植物運動をモデル化するために,コセラート棒を用いたガゼボシミュレーションプラットフォーム用プラグインを提案する。
植物と環境との相互作用のシミュレーションを可能にする。
筆者らは,このプラグインを用いて,実生実験に匹敵する結果を得るロボットアームを模擬することにより,ガゼボで収穫シミュレーションを行うことができることを示した。
関連論文リスト
- RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Learning to navigate efficiently and precisely in real environments [14.52507964172957]
Embodied AIの文献は、HabitatやAI-Thorといったシミュレータで訓練されたエンドツーエンドエージェントに焦点を当てている。
本研究では,sim2realのギャップを最小限に抑えたシミュレーションにおけるエージェントのエンドツーエンドトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-01-25T17:50:05Z) - SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot
Handovers [37.49601724575655]
視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
論文 参考訳(メタデータ) (2023-11-09T18:57:02Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Real-World Humanoid Locomotion with Reinforcement Learning [92.85934954371099]
実世界におけるヒューマノイド移動に対する完全学習型アプローチを提案する。
コントローラーは様々な屋外の地形の上を歩けるし、外乱に対して頑丈で、状況に応じて適応できる。
論文 参考訳(メタデータ) (2023-03-06T18:59:09Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - robo-gym -- An Open Source Toolkit for Distributed Deep Reinforcement
Learning on Real and Simulated Robots [0.5161531917413708]
本稿では,ロボットによる深層強化学習を向上するためのオープンソースのツールキット,robo-gymを提案する。
シミュレーションにおけるトレーニングからロボットへのシームレスな移動を可能にするシミュレーション環境と実環境の統一的なセットアップを実証する。
産業用ロボットを特徴とする2つの実世界アプリケーションを用いて,本フレームワークの能力と有効性を示す。
論文 参考訳(メタデータ) (2020-07-06T13:51:33Z) - RoboTHOR: An Open Simulation-to-Real Embodied AI Platform [56.50243383294621]
インタラクティブで具体化された視覚AIの研究を民主化するためにRoboTHORを導入する。
シミュレーションで訓練されたモデルの性能は,シミュレーションと慎重に構築された物理アナログの両方で試験される場合,大きな差があることが示される。
論文 参考訳(メタデータ) (2020-04-14T20:52:49Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。