論文の概要: GDA-YOLO11: Amodal Instance Segmentation for Occlusion-Robust Robotic Fruit Harvesting
- arxiv url: http://arxiv.org/abs/2602.23953v1
- Date: Fri, 27 Feb 2026 11:56:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.405354
- Title: GDA-YOLO11: Amodal Instance Segmentation for Occlusion-Robust Robotic Fruit Harvesting
- Title(参考訳): GDA-YOLO11:Occlusion-Robust Robotic Fruit Harvestingのためのアモーダルインスタンスセグメンテーション
- Authors: Caner Beldek, Emre Sariyildiz, Son Lam Phung, Gursel Alici,
- Abstract要約: 本稿では,新しいアモーダルセグメンテーションモデル GDA-YOLO11 を用いた収穫フレームワークを提案する。
収量率は92.59%、85.18%、48.14%、22.22%に達する。
- 参考スコア(独自算出の注目度): 3.088218970976369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Occlusion remains a critical challenge in robotic fruit harvesting, as undetected or inaccurately localised fruits often results in substantial crop losses. To mitigate this issue, we propose a harvesting framework using a new amodal segmentation model, GDA-YOLO11, which incorporates architectural improvements and an updated asymmetric mask loss. The proposed model is trained on a modified version of a public citrus dataset and evaluated on both the base dataset and occlusion-sensitive subsets with varying occlusion levels. Within the framework, full fruit masks, including invisible regions, are inferred by GDA-YOLO11, and picking points are subsequently estimated using the Euclidean distance transform. These points are then projected into 3D coordinates for robotic harvesting execution. Experiments were conducted using real citrus fruits in a controlled environment simulating occlusion scenarios. Notably, to the best of our knowledge, this study provides the first practical demonstration of amodal instance segmentation in robotic fruit harvesting. GDA-YOLO11 achieves a precision of 0.844, recall of 0.846, mAP@50 of 0.914, and mAP@50:95 of 0.636, outperforming YOLO11n by 5.1%, 1.3%, and 1.0% in precision, mAP@50, and mAP@50:95, respectively. The framework attains harvesting success rates of 92.59%, 85.18%, 48.14%, and 22.22% at zero to high occlusion levels, improving success by 3.5% under medium and high occlusion. These findings demonstrate that GDA-YOLO11 enhances occlusion robust segmentation and streamlines perception-to-action integration, paving the way for more reliable autonomous systems in agriculture.
- Abstract(参考訳): 排除はロボット果実の収穫において重要な課題であり、未検出または不正確な局所的な果実は、しばしばかなりの収穫損失をもたらす。
この問題を軽減するため,新しいアモーダルセグメンテーションモデルであるGDA-YOLO11を提案する。
提案モデルは,公的なシトラスデータセットの修正版に基づいてトレーニングされ,基本データセットと咬合感受性サブセットの両方で評価される。
フレームワーク内では、目に見えない領域を含むフルフルーツマスクがGDA-YOLO11によって推測され、その後ユークリッド距離変換を用いてピッキングポイントが推定される。
これらのポイントは、ロボット収穫実行のための3D座標に投影される。
閉鎖シナリオを模擬した制御環境下で, 実果実を用いて実験を行った。
特に,本研究では,ロボット果実収穫におけるアモーダル・インスタンス・セグメンテーションの実証実験を行った。
GDA-YOLO11は0.844の精度、0.914のmAP@50、0.636のmAP@50:95のリコール、YOLO11nの5.1%、1.3%、1.0%の精度、mAP@50:95の精度を実現している。
このフレームワークは、収穫成功率92.59%、85.18%、48.14%、22.22%をゼロから高い閉塞レベルで達成し、中・高い閉塞下では3.5%向上した。
これらの結果から,GDA-YOLO11は排他的セグメンテーションを強化し,認識と行動の統合を効率化し,農業におけるより信頼性の高い自律システムを実現することが示唆された。
関連論文リスト
- Detection of On-Ground Chestnuts Using Artificial Intelligence Toward Automated Picking [0.09176056742068812]
伝統的な機械化された栗の収穫は、小さな生産者にとっては高価すぎる。
オーチャードフロアにおけるクリの正確な検出は、低コストで視覚誘導型自動収穫技術の開発に不可欠である。
本研究は,6524個の注釈付き栗を含む果樹園床の栗の319枚の画像を収集した。
論文 参考訳(メタデータ) (2026-02-15T13:28:23Z) - A Domain-Adapted Lightweight Ensemble for Resource-Efficient Few-Shot Plant Disease Classification [0.0]
ドメイン適応型MobileNetV2モデルとMobileNetV3モデルを組み合わせた数ショットの学習手法を提案する。
分類タスクには、注意機構を付加したBi-LSTM分類器を通す。
1発から15発のパフォーマンスを継続的に改善し、15発で98.23+-0.33%に達した。
また、以前のSOTAの精度も96.4%向上し、15ショットの学習で99.72%を記録した。
論文 参考訳(メタデータ) (2025-12-15T15:17:29Z) - DAONet-YOLOv8: An Occlusion-Aware Dual-Attention Network for Tea Leaf Pest and Disease Detection [2.661320179262946]
本報告では,茶葉害虫や病原体を正確に検出するための3つの改良点を有するYOLOv8変異体を提案する。
既存のNet-YOLOv8は92.97%の精度、92.80%のリコール、97.10%のmAP@50、76.90%のmAP@50:95を達成し、YOLOv8nベースラインをそれぞれ2.34、4.68、1.40、および1.80ポイント上回っている。
論文 参考訳(メタデータ) (2025-11-28T14:28:30Z) - DRBD-Mamba for Robust and Efficient Brain Tumor Segmentation with Analytical Insights [54.87947751720332]
脳腫瘍の正確なセグメンテーションは、臨床診断と治療に重要である。
マンバを拠点とするState Space Modelsは、有望なパフォーマンスを示している。
本稿では,計算オーバーヘッドを最小限に抑えながら,マルチスケールの長距離依存関係をキャプチャするマルチ解像度双方向マンバを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:31:21Z) - YOLOv11-Litchi: Efficient Litchi Fruit Detection based on UAV-Captured Agricultural Imagery in Complex Orchard Environments [6.862722449907841]
本稿では,UAVを用いたリッチ検出のための軽量で堅牢な検出モデルであるYOLOv11-Litchiを紹介する。
YOLOv11-Litchiのパラメータサイズは6.35MBで、YOLOv11ベースラインよりも32.5%小さい。
このモデルは57.2FPSのフレームレートを実現し、リアルタイム検出要求を満たす。
論文 参考訳(メタデータ) (2025-10-11T09:44:00Z) - Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - AppleGrowthVision: A large-scale stereo dataset for phenological analysis, fruit detection, and 3D reconstruction in apple orchards [3.9494466926597487]
2つのサブセットからなる大規模データセットであるAppleGrowthVisionを提案する。
第1弾はブランデンブルク(ドイツ)の農場から収集された高解像度ステレオ画像9,317枚を含む。
第2のサブセットはブランデンブルクの同じ農場から1,125枚の濃密に注釈付けされた画像と、合計で31,084個のリンゴのラベルを含むピルニッツ(Pillnitz)の1枚で構成されている。
AppleGrowthVisionは、農業的に検証された成長段階のステレオ画像データを提供し、正確な表現学的分析と3D再構成を可能にする。
論文 参考訳(メタデータ) (2025-05-20T07:29:22Z) - CRTRE: Causal Rule Generation with Target Trial Emulation Framework [47.2836994469923]
ターゲットトライアルエミュレーションフレームワーク(CRTRE)を用いた因果ルール生成という新しい手法を提案する。
CRTREは、アソシエーションルールの因果効果を推定するためにランダム化トライアル設計原則を適用している。
次に、病気発症予測などの下流アプリケーションにそのような関連ルールを組み込む。
論文 参考訳(メタデータ) (2024-11-10T02:40:06Z) - Handling Geometric Domain Shifts in Semantic Segmentation of Surgical RGB and Hyperspectral Images [67.66644395272075]
本稿では,幾何学的アウト・オブ・ディストリビューションデータに直面する場合の,最先端のセマンティックセマンティックセマンティクスモデルの最初の解析を行う。
本稿では, 汎用性を高めるために, 有機移植(Organ Transplantation)と呼ばれる拡張技術を提案する。
我々の拡張技術は、RGBデータに対して最大67%、HSIデータに対して90%のSOAモデル性能を改善し、実際のOODテストデータに対して、分配内パフォーマンスのレベルでのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-27T19:13:15Z) - Tightening Classification Boundaries in Open Set Domain Adaptation
through Unknown Exploitation [45.74830585715129]
畳み込みニューラルネットワーク(CNN)は多くの研究領域に革命的な進歩をもたらした。
しかし、これらの手法が制御不能な環境に適用されると、多くの異なる要因がモデルの性能を劣化させる可能性がある。
未知のインスタンスの高信頼度集合を抽出することでOSDAアプローチを改善する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-09-16T11:33:40Z) - Automating global landslide detection with heterogeneous ensemble
deep-learning classification [44.99833362998488]
地すべりは道路、鉄道、建物、人間の生活などのインフラを脅かす。
危険に基づく空間計画と早期警戒システムは、地すべりから社会へのリスクを減らすための費用対効果の戦略である。
近年,中~高解像度の衛星画像を入力として,深層学習モデルを陸地マッピングに適用している。
論文 参考訳(メタデータ) (2023-09-12T10:56:16Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。