論文の概要: Vision-Based Early Fault Diagnosis and Self-Recovery for Strawberry Harvesting Robots
- arxiv url: http://arxiv.org/abs/2601.02085v1
- Date: Mon, 05 Jan 2026 13:12:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.139989
- Title: Vision-Based Early Fault Diagnosis and Self-Recovery for Strawberry Harvesting Robots
- Title(参考訳): 目視によるイチゴ収穫ロボットの早期故障診断と自己回復
- Authors: Meili Sun, Chunjiang Zhao, Lichao Yang, Hao Liu, Shimin Hu, Ya Xiong,
- Abstract要約: イチゴ収穫効率は, 視覚的知覚, フルーツ・グリッパーのミスアライメント, 空のつかみ, イチゴのすべり面を妥協した。
本稿では,マルチタスク認識と補正制御戦略を統合した視覚的故障診断と自己回復フレームワークを提案する。
SRR-Netは、リピート検出、セグメンテーション、リピート推定を同時に行うエンド・ツー・エンドのマルチタスク知覚モデルである。
- 参考スコア(独自算出の注目度): 13.385551942959282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Strawberry harvesting robots faced persistent challenges such as low integration of visual perception, fruit-gripper misalignment, empty grasping, and strawberry slippage from the gripper due to insufficient gripping force, all of which compromised harvesting stability and efficiency in orchard environments. To overcome these issues, this paper proposed a visual fault diagnosis and self-recovery framework that integrated multi-task perception with corrective control strategies. At the core of this framework was SRR-Net, an end-to-end multi-task perception model that simultaneously performed strawberry detection, segmentation, and ripeness estimation, thereby unifying visual perception with fault diagnosis. Based on this integrated perception, a relative error compensation method based on the simultaneous target-gripper detection was designed to address positional misalignment, correcting deviations when error exceeded the tolerance threshold. To mitigate empty grasping and fruit-slippage faults, an early abort strategy was implemented. A micro-optical camera embedded in the end-effector provided real-time visual feedback, enabling grasp detection during the deflating stage and strawberry slip prediction during snap-off through MobileNet V3-Small classifier and a time-series LSTM classifier. Experiments demonstrated that SRR-Net maintained high perception accuracy. For detection, it achieved a precision of 0.895 and recall of 0.813 on strawberries, and 0.972/0.958 on hands. In segmentation, it yielded a precision of 0.887 and recall of 0.747 for strawberries, and 0.974/0.947 for hands. For ripeness estimation, SRR-Net attained a mean absolute error of 0.035, while simultaneously supporting multi-task perception and sustaining a competitive inference speed of 163.35 FPS.
- Abstract(参考訳): イチゴ収穫ロボットは、収穫安定性と果樹栽培環境の効率を損なうため、視覚的認識の低下、フルーツグリッパーの誤調整、グリップの空き、グリップ力不足によるグリッパーからのイチゴのすべりなど、永続的な課題に直面した。
これらの問題を克服するために,多タスク認識と補正制御戦略を統合した視覚的故障診断と自己回復フレームワークを提案する。
このフレームワークのコアとなるSRR-Netは、イチゴの検出、セグメンテーション、熟度推定を同時に行うエンドツーエンドのマルチタスク認識モデルである。
この統合された認識に基づいて、同時目標グリッパー検出に基づく相対誤差補償法が設計され、誤差が許容しきい値を超えた場合のずれを補正する。
空き握りとフルーツスリップフォールトを緩和するため,早期停電戦略を施行した。
エンドエフェクタに埋め込まれたマイクロ光学カメラは、リアルタイムな視覚フィードバックを提供し、MobileNet V3-Small分類器と時系列LSTM分類器を介して、露光時の把握と、スナップオフ時のイチゴスリップ予測を可能にする。
実験の結果、SRR-Netは高い知覚精度を維持していた。
検出のために、イチゴは0.895、イチゴは0.813、手は0.972/0.958の精度を達成した。
セグメンテーションの精度は0.887、イチゴは0.747、手は0.974/0.947であった。
熟度推定のために、SRR-Netは平均絶対誤差0.035を達成し、同時にマルチタスク認識をサポートし、163.35 FPSの競合推論速度を維持した。
関連論文リスト
- Benchmarking Corruption Robustness of LVLMs: A Discriminative Benchmark and Robustness Alignment Metric [49.393713730706445]
汚損の堅牢性を評価するための識別サンプルを強調したベンチマークであるBench-Cを紹介する。
本稿では,ロバストネスアライメントスコア(RAS)を提案する。
論文 参考訳(メタデータ) (2025-11-24T12:07:56Z) - I Detect What I Don't Know: Incremental Anomaly Learning with Stochastic Weight Averaging-Gaussian for Oracle-Free Medical Imaging [2.384534878752428]
異常ラベルを使わずに,信頼度の高い正規サンプル群を漸進的に拡張する,教師なしのオラクルフリーフレームワークを導入する。
凍結した事前訓練された視覚バックボーンは、小さな畳み込みアダプタで拡張され、無視できる計算オーバーヘッドを伴う高速なドメイン適応が保証される。
COVID-CXRでは、ROC-AUCは0.9489から0.9982に改善され、肺炎CXRでは0.6834から0.8968に上昇し、脳MRIではND-5では0.6041から0.7269に上昇する。
論文 参考訳(メタデータ) (2025-11-05T23:28:14Z) - Revisiting Multivariate Time Series Forecasting with Missing Values [65.30332997607141]
現実の時系列では欠落値が一般的である。
現在のアプローチでは、計算モジュールを使用して、不足した値を補う、計算済みの予測フレームワークが開発されている。
このフレームワークは、致命的な問題を見落としている: 欠落した値に対して基礎的な真理は存在せず、予測精度を劣化させる可能性のあるエラーの影響を受けやすいようにしている。
本稿では,Information Bottleneck原則に基づく新しいフレームワークであるConsistency-Regularized Information Bottleneck(CRIB)を紹介する。
論文 参考訳(メタデータ) (2025-09-27T20:57:48Z) - Online Estimation of Table-Top Grown Strawberry Mass in Field Conditions with Occlusions [2.736203444988168]
本研究では、RGB-Dセンシングとディープラーニングを統合したビジョンベースパイプラインを提案し、非破壊的、リアルタイム、オンラインの質量推定を可能にする。
実験では、イチゴが8.11%、閉塞例が10.47%の質量推定誤差が示された。
論文 参考訳(メタデータ) (2025-07-31T12:10:23Z) - Model Discovery and Graph Simulation: A Lightweight Gateway to Chaos Engineering [0.0]
カオスエンジニアリングはレジリエンスのリスクを明らかにしますが、広く頻繁に実行するには高価で運用上のリスクがあります。
我々は、単純な接続のみのトポロジモデルにより、フェールストップフォールトの下で、高速で低リスクなアベイラビリティー推定を行うことができると主張している。
論文 参考訳(メタデータ) (2025-06-12T10:59:28Z) - Bridging Internal Probability and Self-Consistency for Effective and Efficient LLM Reasoning [53.25336975467293]
パープレキシティや自己整合性などの手法の第一理論誤差分解解析について述べる。
パープレキシティ法は、適切な整合関数が存在しないため、かなりのモデル誤差に悩まされる。
本稿では、自己整合性とパープレキシティを統合したReasoning-Pruning Perplexity Consistency(RPC)と、低確率推論経路を排除したReasoning Pruningを提案する。
論文 参考訳(メタデータ) (2025-02-01T18:09:49Z) - Strawberry detection and counting based on YOLOv7 pruning and information based tracking algorithm [2.8246025005347875]
本研究は,イチゴの花,未熟果実,成熟果実の検出を迅速かつ正確に行うことができる深層学習モデル(YOLOv7とその変種)の検出ヘッドの最適刈り取り法を提案した。
特にPruning-YOLOv7-tiny with detection head 3とPruning-YOLOv7-tiny with head 2 and 3は最高の推論速度(毎秒163.9フレーム)と検出精度(89.1%)を達成した。
論文 参考訳(メタデータ) (2024-07-17T14:41:57Z) - Accurate Detection of Mediastinal Lesions with nnDetection [1.6771547256154151]
縦断損傷解析(MELA)チャレンジ2022に自己構成法nnDetectionの修正版を適用した。
IoU0.10では0.9922、IoU0.3では0.9880の優れたFROCスコアを得た。
提出されたアンサンブルは、MELAチャレンジリーダーボードでFROCスコア0.9897で3位にランクインした。
論文 参考訳(メタデータ) (2023-03-20T15:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。