論文の概要: Active Learning-Driven Lightweight YOLOv9: Enhancing Efficiency in Smart Agriculture
- arxiv url: http://arxiv.org/abs/2601.22732v1
- Date: Fri, 30 Jan 2026 09:14:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.338969
- Title: Active Learning-Driven Lightweight YOLOv9: Enhancing Efficiency in Smart Agriculture
- Title(参考訳): 能動的学習駆動軽量YOLOv9:スマート農業における効率向上
- Authors: Hung-Chih Tu, Bo-Syun Chen, Yun-Chien Cheng,
- Abstract要約: 本研究は, 温室環境のエッジデバイスに設置した農業用ロボットによるトマトとトマトのリアルタイム検出の必要性に対処するものである。
これらの制約を克服するため,本研究では,能動的学習駆動型軽量物体検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study addresses the demand for real-time detection of tomatoes and tomato flowers by agricultural robots deployed on edge devices in greenhouse environments. Under practical imaging conditions, object detection systems often face challenges such as large scale variations caused by varying camera distances, severe occlusion from plant structures, and highly imbalanced class distributions. These factors make conventional object detection approaches that rely on fully annotated datasets difficult to simultaneously achieve high detection accuracy and deployment efficiency. To overcome these limitations, this research proposes an active learning driven lightweight object detection framework, integrating data analysis, model design, and training strategy. First, the size distribution of objects in raw agricultural images is analyzed to redefine an operational target range, thereby improving learning stability under real-world conditions. Second, an efficient feature extraction module is incorporated to reduce computational cost, while a lightweight attention mechanism is introduced to enhance feature representation under multi-scale and occluded scenarios. Finally, an active learning strategy is employed to iteratively select high-information samples for annotation and training under a limited labeling budget, effectively improving the recognition performance of minority and small-object categories. Experimental results demonstrate that, while maintaining a low parameter count and inference cost suitable for edge-device deployment, the proposed method effectively improves the detection performance of tomatoes and tomato flowers in raw images. Under limited annotation conditions, the framework achieves an overall detection accuracy of 67.8% mAP, validating its practicality and feasibility for intelligent agricultural applications.
- Abstract(参考訳): 本研究は, 温室環境のエッジデバイスに設置した農業用ロボットによるトマトとトマトのリアルタイム検出の必要性に対処するものである。
実際の撮像条件下では、カメラ距離の変化による大規模な変動、植物構造からの厳密な排除、高度に不均衡なクラス分布などの課題に直面していることが多い。
これらの要因により、完全に注釈付けされたデータセットに依存する従来のオブジェクト検出アプローチは、高い検出精度とデプロイメント効率を同時に達成することが困難になる。
これらの制約を克服するため,本研究では,データ解析,モデル設計,トレーニング戦略を統合した,アクティブな学習駆動型軽量物体検出フレームワークを提案する。
まず, 実環境下での学習安定性を向上させるため, 生の農業画像における対象物の大きさ分布を分析し, 運用対象範囲を再定義する。
第二に、計算コストを削減するために効率的な特徴抽出モジュールが組み込まれており、マルチスケールおよび非閉塞シナリオにおける特徴表現を強化するための軽量な注意機構が導入されている。
最後に、限られたラベル付け予算の下で、アノテーションとトレーニングのための高情報サンプルを反復的に選択し、マイノリティおよび小対象カテゴリの認識性能を効果的に向上させるために、アクティブな学習戦略を採用する。
実験により,エッジデバイス配置に適した低パラメータ数と推論コストを維持しつつ,原画像中のトマトやトマトの検出性能を効果的に向上することを示した。
限られたアノテーション条件の下では、このフレームワークは67.8% mAPの全体的な検出精度を達成し、その実用性と知的農業応用の可能性を検証する。
関連論文リスト
- Rethinking Evaluation of Infrared Small Target Detection [105.59753496831739]
本稿では,画素レベルと目標レベルのパフォーマンスを取り入れたハイブリッドレベルのメトリクスを導入し,システム的エラー解析手法を提案し,クロスデータセット評価の重要性を強調した。
標準化されたベンチマークを容易にするオープンソースツールキットがリリースされた。
論文 参考訳(メタデータ) (2025-09-21T02:45:07Z) - YOLO-RS: Remote Sensing Enhanced Crop Detection Methods [0.32985979395737786]
既存のターゲット検出手法は、リモートセンシング画像において、小さなターゲットを扱う際の性能が劣っている。
YOLO-RSは、小さなターゲットの検出を大幅に強化した最新のYolov11に基づいている。
リモートセンシング画像における小目標検出作業におけるYOLO-RSの有効性と適用可能性を検証する実験を行った。
論文 参考訳(メタデータ) (2025-04-15T13:13:22Z) - Edge-AI for Agriculture: Lightweight Vision Models for Disease Detection in Resource-Limited Settings [0.0]
提案システムは,エッジデバイスへの展開に最適化された高度なオブジェクト検出,分類,セグメンテーションモデルを統合する。
本研究は, 精度, 計算効率, 一般化能力に着目し, 各種最先端モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-12-23T06:48:50Z) - Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - Explainable Light-Weight Deep Learning Pipeline for Improved Drought Stress Identification [0.0]
作物の干ばつストレスの早期同定は、効果的な緩和対策と収量損失の低減に不可欠である。
本研究は,UAVが自然環境下で捕獲したジャガイモの干ばつストレスを分類するための,新しいディープラーニングフレームワークを提案する。
私たちの研究の重要な革新は、説明可能性のテクニックであるグラディエントクラスの活性化マッピング(Grad-CAM)の統合です。
論文 参考訳(メタデータ) (2024-04-15T18:26:03Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。