論文の概要: Accurate Cutting-point Estimation for Robotic Lychee Harvesting through Geometry-aware Learning
- arxiv url: http://arxiv.org/abs/2404.00364v1
- Date: Sat, 30 Mar 2024 13:34:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 04:10:32.492777
- Title: Accurate Cutting-point Estimation for Robotic Lychee Harvesting through Geometry-aware Learning
- Title(参考訳): 幾何認識学習によるロボットライチーハーベスティングの正確な切削点推定
- Authors: Gengming Zhang, Hao Cao, Kewei Hu, Yaoqiang Pan, Yuqin Deng, Hongjun Wang, Hanwen Kang,
- Abstract要約: Fcaf3d-lycheeネットワークモデルを提案する。
自然環境におけるライチーピックポイントのポイントクラウドデータは、MicrosoftのAzure Kinect DKタイム・オブ・フライカメラを使用して取得される。
完全畳み込み型アンカーフリー3Dオブジェクト検出(Fcaf3d)モデルと圧縮励起(SE)モジュールを併用する。
トレーニングされたネットワークモデルは、ライチーピッキングの試験セットで評価され、88.57%という印象的なF1スコアを達成している。
- 参考スコア(独自算出の注目度): 2.117652819888732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately identifying lychee-picking points in unstructured orchard environments and obtaining their coordinate locations is critical to the success of lychee-picking robots. However, traditional two-dimensional (2D) image-based object detection methods often struggle due to the complex geometric structures of branches, leaves and fruits, leading to incorrect determination of lychee picking points. In this study, we propose a Fcaf3d-lychee network model specifically designed for the accurate localisation of lychee picking points. Point cloud data of lychee picking points in natural environments are acquired using Microsoft's Azure Kinect DK time-of-flight (TOF) camera through multi-view stitching. We augment the Fully Convolutional Anchor-Free 3D Object Detection (Fcaf3d) model with a squeeze-and-excitation(SE) module, which exploits human visual attention mechanisms for improved feature extraction of lychee picking points. The trained network model is evaluated on a test set of lychee-picking locations and achieves an impressive F1 score of 88.57%, significantly outperforming existing models. Subsequent three-dimensional (3D) position detection of picking points in real lychee orchard environments yields high accuracy, even under varying degrees of occlusion. Localisation errors of lychee picking points are within 1.5 cm in all directions, demonstrating the robustness and generality of the model.
- Abstract(参考訳): 果樹園環境におけるライチーピッキングポイントの正確な同定と,その座標位置の取得は,ライチーピッキングロボットの成功に不可欠である。
しかし、従来の2次元画像に基づく物体検出法は、枝、葉、果実の複雑な幾何学的構造のためにしばしば苦労し、リチーピックポイントの誤った決定に繋がる。
本研究では,Fcaf3d-lycheeネットワークモデルを提案する。
自然環境におけるライチーピックポイントのポイントクラウドデータは、マルチビューステッチによってMicrosoftのAzure Kinect DK(Time-of-light)カメラを使用して取得される。
我々は、人間の視覚的注意機構を利用して、ライチーピックポイントの特徴抽出を改善したフルコンボリューショナルアンカーフリー3Dオブジェクト検出(Fcaf3d)モデルを、圧縮励起(SE)モジュールで拡張する。
トレーニングされたネットワークモデルは、ライチーピッキングの試験セットで評価され、88.57%の印象的なF1スコアを達成し、既存のモデルを大幅に上回っている。
その後の3次元(3D)位置検出により、実際のライチー果樹園環境におけるピッキングポイントの精度が向上し、オクルージョンの度合いが変化しても精度は向上する。
リチーピック点の局所化誤差は、全ての方向において1.5cm以内であり、モデルの堅牢性と一般性を示す。
関連論文リスト
- Learning to Produce Semi-dense Correspondences for Visual Localization [11.415451542216559]
本研究は,夜間シナリオ,悪天候,季節変化などの要求条件下で視覚的局所化を行うことの課題に対処する。
本稿では,高密度なキーポイントマッチングに基づいて,信頼性の高い半高密度2D-3Dマッチングポイントを抽出する手法を提案する。
ネットワークは幾何学的および視覚的な手がかりを用いて、観測されたキーポイントから観測されていないキーポイントの3D座標を効果的に推測する。
論文 参考訳(メタデータ) (2024-02-13T10:40:10Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - Object Detection in 3D Point Clouds via Local Correlation-Aware Point
Embedding [0.0]
Frustum PointNet(F-PointNet)に基づく点クラウドデータにおける3次元物体検出のための改良されたアプローチを提案する。
提案手法は,従来のF-PointNetと比較し,計算点の特徴のある点近傍について検討する。
論文 参考訳(メタデータ) (2023-01-11T18:14:47Z) - CVFNet: Real-time 3D Object Detection by Learning Cross View Features [11.402076835949824]
CVFNetと呼ばれるリアルタイムビューベースの1段3Dオブジェクト検出器を提案する。
本稿ではまず,複数の段階において,ポイント・アンド・レンジ・ビュー機能を深く統合した新しいポイント・ラウンジ機能融合モジュールを提案する。
次に, 得られた深度視点特徴を鳥の目視に変換する際に, 3次元形状を良好に維持する特別のスライスピラーを設計する。
論文 参考訳(メタデータ) (2022-03-13T06:23:18Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。