論文の概要: RoMu4o: A Robotic Manipulation Unit For Orchard Operations Automating Proximal Hyperspectral Leaf Sensing
- arxiv url: http://arxiv.org/abs/2501.10621v1
- Date: Sat, 18 Jan 2025 01:04:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:21:04.752288
- Title: RoMu4o: A Robotic Manipulation Unit For Orchard Operations Automating Proximal Hyperspectral Leaf Sensing
- Title(参考訳): RoMu4o: 近視眼下葉のセンシングを自動化した果樹園作業用ロボットマニピュレーションユニット
- Authors: Mehrad Mortazavi, David J. Cappelleri, Reza Ehsani,
- Abstract要約: 葉レベルハイパースペクトル分光法は、表現型化、作物の健康のモニタリング、植物中の必須栄養素の同定、病気や水ストレスの検出に強力なツールであることが示されている。
この研究は、果樹園操作のためのロボット操作ユニットであるRoMu4oを紹介した。
- 参考スコア(独自算出の注目度): 2.1038216828914145
- License:
- Abstract: Driven by the need to address labor shortages and meet the demands of a rapidly growing population, robotic automation has become a critical component in precision agriculture. Leaf-level hyperspectral spectroscopy is shown to be a powerful tool for phenotyping, monitoring crop health, identifying essential nutrients within plants as well as detecting diseases and water stress. This work introduces RoMu4o, a robotic manipulation unit for orchard operations offering an automated solution for proximal hyperspectral leaf sensing. This ground robot is equipped with a 6DOF robotic arm and vision system for real-time deep learning-based image processing and motion planning. We developed robust perception and manipulation pipelines that enable the robot to successfully grasp target leaves and perform spectroscopy. These frameworks operate synergistically to identify and extract the 3D structure of leaves from an observed batch of foliage, propose 6D poses, and generate collision-free constraint-aware paths for precise leaf manipulation. The end-effector of the arm features a compact design that integrates an independent lighting source with a hyperspectral sensor, enabling high-fidelity data acquisition while streamlining the calibration process for accurate measurements. Our ground robot is engineered to operate in unstructured orchard environments. However, the performance of the system is evaluated in both indoor and outdoor plant models. The system demonstrated reliable performance for 1-LPB hyperspectral sampling, achieving 95% success rate in lab trials and 79% in field trials. Field experiments revealed an overall success rate of 70% for autonomous leaf grasping and hyperspectral measurement in a pistachio orchard. The open-source repository is available at: https://github.com/mehradmrt/UCM-AgBot-ROS2
- Abstract(参考訳): 労働不足に対処し、人口の急増の需要に応える必要性によって、ロボット自動化は精密農業において重要な要素となっている。
葉レベルハイパースペクトル分光法は、表現型化、作物の健康のモニタリング、植物中の必須栄養素の同定、病気や水ストレスの検出に強力なツールであることが示されている。
この研究は、果樹園操作のためのロボット操作ユニットであるRoMu4oを紹介した。
この地上ロボットは、6DOFロボットアームとビジョンシステムを備えており、リアルタイムの深層学習に基づく画像処理とモーションプランニングを行う。
我々は,ロボットが目標葉をうまく把握し,分光を行うことのできる,頑健な知覚と操作パイプラインを開発した。
これらのフレームワークは相乗的に機能し、観察された葉のバッチから葉の3D構造を特定し、抽出し、6Dポーズを提案し、正確な葉の操作のために衝突のない制約を意識した経路を生成する。
アームの端エフェクタは、独立光源とハイパースペクトルセンサを一体化して、キャリブレーションプロセスの合理化を図りながら高忠実なデータ取得を可能にするコンパクトな設計を特徴としている。
我々の地上ロボットは、未構造化の果樹園環境で動作するように設計されている。
しかし,本システムの性能は,室内および屋外の両方の植物モデルで評価されている。
このシステムは1-LPBハイパースペクトルサンプリングにおいて信頼性の高い性能を示し, 実験室試験で95%, フィールド試験で79%を達成した。
野外実験では, ピスタチオ果樹園における自律的葉の握りとハイパースペクトル測定の総合的な成功率は70%であった。
https://github.com/mehradmrt/UCM-AgBot-ROS2
関連論文リスト
- Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - Plant Doctor: A hybrid machine learning and image segmentation software to quantify plant damage in video footage [0.0]
本研究では,アクセス可能なカメラで撮影した映像を用いて,街路植物の自動診断を行うAIシステムを提案する。
本システムは,都市部における病気のコントロールを支援するため,日常的に植物の健康をモニタリングすることを目的としている。
その結果, 葉の損傷診断におけるシステムの堅牢性と精度が示され, 大規模都会の植物病モニタリングにも応用できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-03T07:11:18Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Semantics-Aware Next-best-view Planning for Efficient Search and Detection of Task-relevant Plant Parts [3.9074818653555554]
トマトの収穫・脱葉を自動化するためには, 作業関連部位の探索と検出が重要である。
現在のアクティブビジョンアルゴリズムは、関連する部分と無関係な植物部位を区別できない。
本研究は,意味情報を用いて植物部位を識別するセマンティックス対応アクティブビジョン戦略を提案する。
論文 参考訳(メタデータ) (2023-06-16T12:22:19Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Autonomous Agriculture Robot for Smart Farming [0.0]
AARは、インテリジェント・インテリジェンスを使って植物の検出と分類を行い、その特性を識別する軽量なソーラー発電ロボットである。
このロボットは、農薬の散布、殺虫剤、除草剤、その他の流体を、作物、雑草、その他の害虫などの標的に届けることができる。
論文 参考訳(メタデータ) (2022-08-02T19:38:48Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Geometry-Aware Fruit Grasping Estimation for Robotic Harvesting in
Orchards [6.963582954232132]
幾何認識ネットワークであるA3Nは、エンドツーエンドのインスタンスセグメンテーションと把握推定を行うために提案されている。
我々は,フィールド環境下での果実の認識と検索をロボットが正確に行うことができるグローバル・ローカル・スキャン・ストラテジーを実装した。
全体として、ロボットシステムは、収穫実験において70%から85%の範囲で収穫の成功率を達成する。
論文 参考訳(メタデータ) (2021-12-08T16:17:26Z) - Automated Pest Detection with DNN on the Edge for Precision Agriculture [0.0]
本稿では,機械学習(ML)機能により強化された組込みシステムについて,果樹園内での害虫感染の連続検出を確実にする。
3つの異なるMLアルゴリズムがトレーニングされ、デプロイされ、プラットフォームの能力を強調している。
その結果,農夫の介入なしに無期限に害虫感染処理を自動化できることが示唆された。
論文 参考訳(メタデータ) (2021-08-01T10:17:48Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。