論文の概要: Gazebo Plants: Simulating Plant-Robot Interaction with Cosserat Rods
- arxiv url: http://arxiv.org/abs/2402.02570v1
- Date: Sun, 4 Feb 2024 17:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 18:48:17.087661
- Title: Gazebo Plants: Simulating Plant-Robot Interaction with Cosserat Rods
- Title(参考訳): ガゼボ植物:コセラットロッドとの植物-ロボット相互作用のシミュレーション
- Authors: Junchen Deng and Samhita Marri and Jonathan Klein and Wojtek
Pa{\l}ubicki and S\"oren Pirk and Girish Chowdhary and Dominik L. Michels
- Abstract要約: 植物の動きをモデル化するために,コセラットロッドをベースとしたGazeboシミュレーションプラットフォーム用のプラグインを提案する。
筆者らは,このプラグインを用いて,果実を摘むロボットアームを模擬することにより,ガゼボで収穫シミュレーションを行うことができることを示した。
- 参考スコア(独自算出の注目度): 11.379848739344814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic harvesting has the potential to positively impact agricultural
productivity, reduce costs, improve food quality, enhance sustainability, and
to address labor shortage. In the rapidly advancing field of agricultural
robotics, the necessity of training robots in a virtual environment has become
essential. Generating training data to automatize the underlying computer
vision tasks such as image segmentation, object detection and classification,
also heavily relies on such virtual environments as synthetic data is often
required to overcome the shortage and lack of variety of real data sets.
However, physics engines commonly employed within the robotics community, such
as ODE, Simbody, Bullet, and DART, primarily support motion and collision
interaction of rigid bodies. This inherent limitation hinders experimentation
and progress in handling non-rigid objects such as plants and crops. In this
contribution, we present a plugin for the Gazebo simulation platform based on
Cosserat rods to model plant motion. It enables the simulation of plants and
their interaction with the environment. We demonstrate that, using our plugin,
users can conduct harvesting simulations in Gazebo by simulating a robotic arm
picking fruits and achieve results comparable to real-world experiments.
- Abstract(参考訳): ロボット収穫は農業生産性に肯定的な影響を及ぼし、コストを削減し、食料品質を改善し、持続可能性を高め、労働力不足に対処する可能性がある。
農業ロボティクスの急速に進歩する分野において,仮想環境下でロボットを訓練する必要性が求められている。
イメージセグメンテーション、オブジェクト検出、分類といったコンピュータビジョンのタスクを自動化するトレーニングデータを生成することも、実際のデータセットの不足や欠如を克服するために合成データがしばしば必要となるような仮想環境に大きく依存している。
しかしながら、OD、Simbody、Bullet、DARTといったロボットコミュニティでよく使われている物理エンジンは、主に剛体の動きと衝突の相互作用をサポートする。
この本質的な制限は、植物や作物などの非剛性物質を扱う実験や進歩を妨げる。
本稿では,植物運動をモデル化するために,コセラート棒を用いたガゼボシミュレーションプラットフォーム用プラグインを提案する。
植物と環境との相互作用のシミュレーションを可能にする。
筆者らは,このプラグインを用いて,実生実験に匹敵する結果を得るロボットアームを模擬することにより,ガゼボで収穫シミュレーションを行うことができることを示した。
関連論文リスト
- Physical Simulation for Multi-agent Multi-machine Tending [11.017120167486448]
強化学習(RL)は,ロボットが環境とのインタラクションを通じて学習できる,有望なソリューションを提供する。
我々は、シンプルなロボットシステムを活用して、製造環境で大きな高価なロボットをデプロイすることなく、RLと“リアル”なデータで作業しました。
論文 参考訳(メタデータ) (2024-10-11T17:57:44Z) - Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - RoboCasa: Large-Scale Simulation of Everyday Tasks for Generalist Robots [25.650235551519952]
本稿では,汎用ロボットを日常的に訓練するための大規模シミュレーションフレームワークであるRoboCasaを紹介する。
私たちは、150以上のオブジェクトカテゴリと数十の対話可能な家具とアプライアンスに対して、何千もの3Dアセットを提供しています。
本実験は, 大規模模倣学習のための合成ロボットデータを用いて, スケーリングの傾向を明らかにするものである。
論文 参考訳(メタデータ) (2024-06-04T17:41:31Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Learning to navigate efficiently and precisely in real environments [14.52507964172957]
Embodied AIの文献は、HabitatやAI-Thorといったシミュレータで訓練されたエンドツーエンドエージェントに焦点を当てている。
本研究では,sim2realのギャップを最小限に抑えたシミュレーションにおけるエージェントのエンドツーエンドトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-01-25T17:50:05Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - RoboTHOR: An Open Simulation-to-Real Embodied AI Platform [56.50243383294621]
インタラクティブで具体化された視覚AIの研究を民主化するためにRoboTHORを導入する。
シミュレーションで訓練されたモデルの性能は,シミュレーションと慎重に構築された物理アナログの両方で試験される場合,大きな差があることが示される。
論文 参考訳(メタデータ) (2020-04-14T20:52:49Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。