論文の概要: Geometry-Aware Fruit Grasping Estimation for Robotic Harvesting in
Orchards
- arxiv url: http://arxiv.org/abs/2112.04363v1
- Date: Wed, 8 Dec 2021 16:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 15:01:41.493584
- Title: Geometry-Aware Fruit Grasping Estimation for Robotic Harvesting in
Orchards
- Title(参考訳): 果樹園におけるロボットハーヴェスティングの形状を考慮した果実粒度推定
- Authors: Hanwen Kang, Xing Wang, and Chao Chen
- Abstract要約: 幾何認識ネットワークであるA3Nは、エンドツーエンドのインスタンスセグメンテーションと把握推定を行うために提案されている。
我々は,フィールド環境下での果実の認識と検索をロボットが正確に行うことができるグローバル・ローカル・スキャン・ストラテジーを実装した。
全体として、ロボットシステムは、収穫実験において70%から85%の範囲で収穫の成功率を達成する。
- 参考スコア(独自算出の注目度): 6.963582954232132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Field robotic harvesting is a promising technique in recent development of
agricultural industry. It is vital for robots to recognise and localise fruits
before the harvesting in natural orchards. However, the workspace of harvesting
robots in orchards is complex: many fruits are occluded by branches and leaves.
It is important to estimate a proper grasping pose for each fruit before
performing the manipulation. In this study, a geometry-aware network, A3N, is
proposed to perform end-to-end instance segmentation and grasping estimation
using both color and geometry sensory data from a RGB-D camera. Besides,
workspace geometry modelling is applied to assist the robotic manipulation.
Moreover, we implement a global-to-local scanning strategy, which enables
robots to accurately recognise and retrieve fruits in field environments with
two consumer-level RGB-D cameras. We also evaluate the accuracy and robustness
of proposed network comprehensively in experiments. The experimental results
show that A3N achieves 0.873 on instance segmentation accuracy, with an average
computation time of 35 ms. The average accuracy of grasping estimation is 0.61
cm and 4.8$^{\circ}$ in centre and orientation, respectively. Overall, the
robotic system that utilizes the global-to-local scanning and A3N, achieves
success rate of harvesting ranging from 70\% - 85\% in field harvesting
experiments.
- Abstract(参考訳): フィールドロボット収穫は近年の農業の発展において有望な技術である。
自然果樹園での収穫前に果実を認識・局在化することがロボットにとって不可欠である。
しかし、果樹園で収穫するロボットの作業スペースは複雑で、多くの果実は枝や葉で囲まれている。
操作する前に各果実の適切な把握ポーズを推定することが重要である。
本研究では,rgb-dカメラからの色と形状の知覚データの両方を用いて,エンドツーエンドのインスタンスセグメンテーションと把持推定を行う幾何認識ネットワークa3nを提案する。
さらに、ワークスペース幾何モデリングはロボット操作を支援するために適用される。
さらに,2台のコンシューマレベルのRGB-Dカメラを用いて,ロボットが現場環境の果実を正確に認識し,回収できるグローバル・ローカル・スキャン戦略を実装した。
また,実験において提案したネットワークの精度とロバスト性を総合的に評価した。
実験の結果,a3nは平均計算時間35msのインスタンスセグメンテーション精度で0.873を達成し,平均把握精度は0.61 cm,4.8$^{\circ}$であった。
総じて、グローバル・ローカル・スキャンとA3Nを利用したロボットシステムは、収穫実験において70%から85パーセントの範囲で収穫の成功率を達成する。
関連論文リスト
- A Dataset and Benchmark for Shape Completion of Fruits for Agricultural Robotics [30.46518628656399]
本稿では,農業用視覚システムのための3次元形状補完データセットを提案する。
果実の3次元形状を推定するためのRGB-Dデータセットを提供する。
論文 参考訳(メタデータ) (2024-07-18T09:07:23Z) - Key Point-based Orientation Estimation of Strawberries for Robotic Fruit
Picking [8.657107511095242]
本稿では,2次元画像から直接3次元方向を予測できるキーポイント型果物配向推定手法を提案する。
提案手法は, 平均誤差を8円程度に抑え, 従来よりも$sim30%の予測精度を向上する。
論文 参考訳(メタデータ) (2023-10-17T15:12:11Z) - Care3D: An Active 3D Object Detection Dataset of Real Robotic-Care
Environments [52.425280825457385]
本稿では,実環境の注釈付きデータセットを紹介する。
捕獲された環境は、ロボット医療研究の分野ですでに使われている領域を表している。
また,医療ロボット上で直接動作するSLAMアルゴリズムを評価するために,一室で真実データを提供する。
論文 参考訳(メタデータ) (2023-10-09T10:35:37Z) - Panoptic Mapping with Fruit Completion and Pose Estimation for
Horticultural Robots [33.21287030243106]
植物や果実を高解像度でモニタリングすることは、農業の未来において重要な役割を担っている。
正確な3D情報は、自律収穫から正確な収量推定まで、農業における多様なロボット応用への道を開くことができる。
移動ロボットによって構築された3次元多次元マップにおいて,果実の完全な3次元形状とそのポーズを共同で推定する問題に対処する。
論文 参考訳(メタデータ) (2023-03-15T20:41:24Z) - Semantic Segmentation of Fruits on Multi-sensor Fused Data in Natural
Orchards [5.733573598657243]
本稿では,LiDAR-Camera視覚センサからの融合データに対して,高精度なセマンティックセマンティックセマンティックセマンティクスを実現するための深層学習に基づくセマンティクス手法を提案する。
実験では,リンゴ果樹園から取得した高度に非構造的でノイズの多い点群を扱う際のネットワーク構成を網羅的に解析した。
実験の結果,提案手法は実際の果樹園環境において正確なセグメンテーションを行うことができることがわかった。
論文 参考訳(メタデータ) (2022-08-04T06:17:07Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z) - Strawberry Detection Using a Heterogeneous Multi-Processor Platform [1.5171938155576565]
本稿では,精密農業ロボットに適用するための画像処理技術と組み合わせて,You Only Look Once Version 3 (YOLOv3) Convolutional Neural Network (CNN) を提案する。
その結果、プロセッサ側で実行されている同じアルゴリズムと比較して、FPGA(Field-Programmable Gate Array)上で実装された場合、性能が5倍向上することがわかった。
論文 参考訳(メタデータ) (2020-11-07T01:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。