論文の概要: Gazebo Plants: Simulating Plant-Robot Interaction with Cosserat Rods
- arxiv url: http://arxiv.org/abs/2402.02570v1
- Date: Sun, 4 Feb 2024 17:19:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-06 18:48:17.087661
- Title: Gazebo Plants: Simulating Plant-Robot Interaction with Cosserat Rods
- Title(参考訳): ガゼボ植物:コセラットロッドとの植物-ロボット相互作用のシミュレーション
- Authors: Junchen Deng and Samhita Marri and Jonathan Klein and Wojtek
Pa{\l}ubicki and S\"oren Pirk and Girish Chowdhary and Dominik L. Michels
- Abstract要約: 植物の動きをモデル化するために,コセラットロッドをベースとしたGazeboシミュレーションプラットフォーム用のプラグインを提案する。
筆者らは,このプラグインを用いて,果実を摘むロボットアームを模擬することにより,ガゼボで収穫シミュレーションを行うことができることを示した。
- 参考スコア(独自算出の注目度): 11.379848739344814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic harvesting has the potential to positively impact agricultural
productivity, reduce costs, improve food quality, enhance sustainability, and
to address labor shortage. In the rapidly advancing field of agricultural
robotics, the necessity of training robots in a virtual environment has become
essential. Generating training data to automatize the underlying computer
vision tasks such as image segmentation, object detection and classification,
also heavily relies on such virtual environments as synthetic data is often
required to overcome the shortage and lack of variety of real data sets.
However, physics engines commonly employed within the robotics community, such
as ODE, Simbody, Bullet, and DART, primarily support motion and collision
interaction of rigid bodies. This inherent limitation hinders experimentation
and progress in handling non-rigid objects such as plants and crops. In this
contribution, we present a plugin for the Gazebo simulation platform based on
Cosserat rods to model plant motion. It enables the simulation of plants and
their interaction with the environment. We demonstrate that, using our plugin,
users can conduct harvesting simulations in Gazebo by simulating a robotic arm
picking fruits and achieve results comparable to real-world experiments.
- Abstract(参考訳): ロボット収穫は農業生産性に肯定的な影響を及ぼし、コストを削減し、食料品質を改善し、持続可能性を高め、労働力不足に対処する可能性がある。
農業ロボティクスの急速に進歩する分野において,仮想環境下でロボットを訓練する必要性が求められている。
イメージセグメンテーション、オブジェクト検出、分類といったコンピュータビジョンのタスクを自動化するトレーニングデータを生成することも、実際のデータセットの不足や欠如を克服するために合成データがしばしば必要となるような仮想環境に大きく依存している。
しかしながら、OD、Simbody、Bullet、DARTといったロボットコミュニティでよく使われている物理エンジンは、主に剛体の動きと衝突の相互作用をサポートする。
この本質的な制限は、植物や作物などの非剛性物質を扱う実験や進歩を妨げる。
本稿では,植物運動をモデル化するために,コセラート棒を用いたガゼボシミュレーションプラットフォーム用プラグインを提案する。
植物と環境との相互作用のシミュレーションを可能にする。
筆者らは,このプラグインを用いて,実生実験に匹敵する結果を得るロボットアームを模擬することにより,ガゼボで収穫シミュレーションを行うことができることを示した。
関連論文リスト
- SimPRIVE: a Simulation framework for Physical Robot Interaction with Virtual Environments [4.966661313606916]
本稿では,仮想環境との物理的相互作用をシミュレーションするSimPRIVEを提案する。
SimPRIVEを使用することで、ROS 2上で動作する任意の物理移動ロボットは、Unreal Engine 5グラフィックエンジンで構築された仮想世界でデジタルツインを動かせるように構成することができる。
このフレームワークは、AgileX Scout Miniローバーで障害物回避のためにトレーニングされた強化学習エージェントをテストすることで検証されている。
論文 参考訳(メタデータ) (2025-04-30T09:22:55Z) - Unreal Robotics Lab: A High-Fidelity Robotics Simulator with Advanced Physics and Rendering [4.760567755149477]
本稿では,Unreal Engineの高度なレンダリング機能とMuJoCoの高精度物理シミュレーションを統合する新しいシミュレーションフレームワークを提案する。
我々のアプローチは、正確な物理的相互作用を維持しながら、現実的なロボット知覚を可能にする。
フレームワーク内のビジュアルナビゲーションとSLAMメソッドをベンチマークし、制御されながら多様なシナリオで実世界のロバスト性をテストするための実用性を実証する。
論文 参考訳(メタデータ) (2025-04-19T01:54:45Z) - Taccel: Scaling Up Vision-based Tactile Robotics via High-performance GPU Simulation [50.34179054785646]
ロボット,触覚センサ,物体を精度と前例のない速度でモデル化するために,IPCとABDを統合した高性能なシミュレーションプラットフォームであるTaccelを提案する。
Taccelは正確な物理シミュレーションとリアルな触覚信号を提供し、ユーザフレンドリーなAPIを通じて柔軟なロボットセンサー構成をサポートする。
これらの能力は、触覚ロボットの研究と開発を拡大するための強力なツールとして、Taccelを位置づけている。
論文 参考訳(メタデータ) (2025-04-17T12:57:11Z) - Self-Supervised Data Generation for Precision Agriculture: Blending Simulated Environments with Real Imagery [3.9845810840390734]
精密農業において、ラベル付きデータの不足は、機械学習モデルのトレーニングにユニークな課題をもたらす。
本稿では,これらの課題に対処するために,現実的な合成データを生成する新しいシステムを提案する。
本研究では, テーブルブドウ栽培に本法を適用して, 最先端検出器の訓練において, 大幅な性能向上を図った。
論文 参考訳(メタデータ) (2025-02-25T16:13:49Z) - Physical Simulation for Multi-agent Multi-machine Tending [11.017120167486448]
強化学習(RL)は,ロボットが環境とのインタラクションを通じて学習できる,有望なソリューションを提供する。
我々は、シンプルなロボットシステムを活用して、製造環境で大きな高価なロボットをデプロイすることなく、RLと“リアル”なデータで作業しました。
論文 参考訳(メタデータ) (2024-10-11T17:57:44Z) - Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - RoboCasa: Large-Scale Simulation of Everyday Tasks for Generalist Robots [25.650235551519952]
本稿では,汎用ロボットを日常的に訓練するための大規模シミュレーションフレームワークであるRoboCasaを紹介する。
私たちは、150以上のオブジェクトカテゴリと数十の対話可能な家具とアプライアンスに対して、何千もの3Dアセットを提供しています。
本実験は, 大規模模倣学習のための合成ロボットデータを用いて, スケーリングの傾向を明らかにするものである。
論文 参考訳(メタデータ) (2024-06-04T17:41:31Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Learning to navigate efficiently and precisely in real environments [14.52507964172957]
Embodied AIの文献は、HabitatやAI-Thorといったシミュレータで訓練されたエンドツーエンドエージェントに焦点を当てている。
本研究では,sim2realのギャップを最小限に抑えたシミュレーションにおけるエージェントのエンドツーエンドトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-01-25T17:50:05Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - RoboTHOR: An Open Simulation-to-Real Embodied AI Platform [56.50243383294621]
インタラクティブで具体化された視覚AIの研究を民主化するためにRoboTHORを導入する。
シミュレーションで訓練されたモデルの性能は,シミュレーションと慎重に構築された物理アナログの両方で試験される場合,大きな差があることが示される。
論文 参考訳(メタデータ) (2020-04-14T20:52:49Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。