論文の概要: Multi-vision-based Picking Point Localisation of Target Fruit for Harvesting Robots
- arxiv url: http://arxiv.org/abs/2502.12406v1
- Date: Tue, 18 Feb 2025 00:40:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:06:03.939411
- Title: Multi-vision-based Picking Point Localisation of Target Fruit for Harvesting Robots
- Title(参考訳): ハーベスティングロボットのためのターゲット果実の多視点ピッキングポイント位置決め
- Authors: C. Beldek, A. Dunn, J. Cunningham, E. Sariyildiz, S. L. Phung, G. Alici,
- Abstract要約: 2つのマルチビジョン型ローカライゼーション手法、すなわち解析的アプローチとモデルベースアルゴリズムが採用された。
最も成功したモデルベースのローカライゼーションアルゴリズムであるアダブースト回帰は、平均ユークリッド距離(MED)の4.40mmで88.8%の収穫精度を達成した。
マルチビジョンシステムでは, ピックポイントの局所化が向上し, ロボット収穫におけるピッキングの成功率が向上することが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper presents multi-vision-based localisation strategies for harvesting robots. Identifying picking points accurately is essential for robotic harvesting because insecure grasping can lead to economic loss through fruit damage and dropping. In this study, two multi-vision-based localisation methods, namely the analytical approach and model-based algorithms, were employed. The actual geometric centre points of fruits were collected using a motion capture system (mocap), and two different surface points Cfix and Ceih were extracted using two Red-Green-Blue-Depth (RGB-D) cameras. First, the picking points of the target fruit were detected using analytical methods. Second, various primary and ensemble learning methods were employed to predict the geometric centre of target fruits by taking surface points as input. Adaboost regression, the most successful model-based localisation algorithm, achieved 88.8% harvesting accuracy with a Mean Euclidean Distance (MED) of 4.40 mm, while the analytical approach reached 81.4% picking success with a MED of 14.25 mm, both demonstrating better performance than the single-camera, which had a picking success rate of 77.7% with a MED of 24.02 mm. To evaluate the effect of picking point accuracy in collecting fruits, a series of robotic harvesting experiments were performed utilising a collaborative robot (cobot). It is shown that multi-vision systems can improve picking point localisation, resulting in higher success rates of picking in robotic harvesting.
- Abstract(参考訳): 本稿では,ロボットの収穫のためのマルチビジョン型ローカライゼーション戦略を提案する。
ピックポイントを正確に同定することは、安全確保が果物の損傷や落下による経済的損失につながるため、ロボット収穫に不可欠である。
本研究では,解析的アプローチとモデルベースアルゴリズムという2つのマルチビジョン型ローカライゼーション手法を用いた。
実果の幾何学的中心点をモーションキャプチャーシステム(mocap)を用いて収集し,2つの赤緑色深度カメラ(RGB-D)を用いて2つの異なる表面点CfixとCeihを抽出した。
まず, 対象果実の摘果点を解析的手法を用いて検出した。
第2に, 表面点を入力として, 対象果実の幾何学的中心を予測するために, 各種一次およびアンサンブル学習法を用いた。
最も成功したモデルベースのローカライゼーションアルゴリズムであるアダブースト回帰は平均ユークリッド距離(MED)4.40mmで88.8%の精度を達成し、解析的アプローチは81.4%のMEDで成功し、どちらもMED24.02mmで77.7%の成功率でシングルカメラよりも優れた性能を示した。
果実の収穫における選抜点精度の影響を評価するため,コラボロボット(cobot)を用いた一連のロボット収穫実験を行った。
マルチビジョンシステムでは, ピックポイントの局所化が向上し, ロボット収穫におけるピッキングの成功率が向上することが示唆された。
関連論文リスト
- Strawberry detection and counting based on YOLOv7 pruning and information based tracking algorithm [2.8246025005347875]
本研究は,イチゴの花,未熟果実,成熟果実の検出を迅速かつ正確に行うことができる深層学習モデル(YOLOv7とその変種)の検出ヘッドの最適刈り取り法を提案した。
特にPruning-YOLOv7-tiny with detection head 3とPruning-YOLOv7-tiny with head 2 and 3は最高の推論速度(毎秒163.9フレーム)と検出精度(89.1%)を達成した。
論文 参考訳(メタデータ) (2024-07-17T14:41:57Z) - Dual-band feature selection for maturity classification of specialty crops by hyperspectral imaging [5.905721043072562]
イチゴやトマトなどの特産作物の成熟度分類は、農業の下流における重要な活動である。
近年のDeep Learningの進歩は、成熟度分類のためのカラー画像の奨励的な結果を生み出している。
成熟度分類のための特徴抽出法を提案する。
論文 参考訳(メタデータ) (2024-05-16T10:01:16Z) - Precise Apple Detection and Localization in Orchards using YOLOv5 for Robotic Harvesting Systems [0.0]
対象検出モデル YOLOv5 を用いたリンゴ検出と位置推定のための新しい手法を提案する。
以上の結果から, YOLOv5モデルではリンゴ検出精度が約85%向上した。
論文 参考訳(メタデータ) (2024-05-10T06:17:00Z) - 3D Pose Estimation of Tomato Peduncle Nodes using Deep Keypoint
Detection and Point Cloud [4.442043151145212]
本稿では,RGB-Dカメラのデータを用いたキーポイント検出に基づく16の手法を提案し,ペプンクルノードの3次元ポーズを推定する。
トマトをユースケースとして選択したものの、提案手法はペッパーなどの他の30種類の温室作物にも適用できる。
論文 参考訳(メタデータ) (2023-11-08T14:10:46Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Geometry-Aware Fruit Grasping Estimation for Robotic Harvesting in
Orchards [6.963582954232132]
幾何認識ネットワークであるA3Nは、エンドツーエンドのインスタンスセグメンテーションと把握推定を行うために提案されている。
我々は,フィールド環境下での果実の認識と検索をロボットが正確に行うことができるグローバル・ローカル・スキャン・ストラテジーを実装した。
全体として、ロボットシステムは、収穫実験において70%から85%の範囲で収穫の成功率を達成する。
論文 参考訳(メタデータ) (2021-12-08T16:17:26Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Diverse Knowledge Distillation for End-to-End Person Search [81.4926655119318]
人物検索は、画像ギャラリーから特定の人物をローカライズし識別することを目的としている。
最近の手法は2つのグループ、すなわち2段階とエンドツーエンドのアプローチに分類できる。
ボトルネックを解消するために、多様な知識蒸留を備えたシンプルで強力なエンドツーエンドネットワークを提案します。
論文 参考訳(メタデータ) (2020-12-21T09:04:27Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z) - X-Ray: Mechanical Search for an Occluded Object by Minimizing Support of
Learned Occupancy Distributions [44.39286120613235]
本稿では,習熟度分布に基づくX線アルゴリズムを提案する。
X線は、シミュレーションと実環境の両方において、機械的な探索ポリシーの一部として学習された分布のサポートを最小化する。
その結果、X線は82%の時間で対象物を抽出することに成功したため、はるかに効率が良いことが示唆された。
論文 参考訳(メタデータ) (2020-04-20T03:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。