論文の概要: N-EIoU-YOLOv9: A Signal-Aware Bounding Box Regression Loss for Lightweight Mobile Detection of Rice Leaf Diseases
- arxiv url: http://arxiv.org/abs/2601.09170v1
- Date: Wed, 14 Jan 2026 05:13:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.278098
- Title: N-EIoU-YOLOv9: A Signal-Aware Bounding Box Regression Loss for Lightweight Mobile Detection of Rice Leaf Diseases
- Title(参考訳): N-EIoU-YOLOv9: イネ葉病の軽度移動検出のための信号認識ボックス回帰損失
- Authors: Dung Ta Nguyen Duc, Thanh Bui Dang, Hoang Le Minh, Tung Nguyen Viet, Huong Nguyen Thanh, Dong Trinh Cong,
- Abstract要約: N EIoU YOLOv9は信号認識ボックス回帰損失に基づく軽量検出フレームワークである。
提案した損失は,非単調焦点と非結合幅と高さ最適化を組み合わせることで局所化勾配を推定する。
このデザインは農業病の画像でよく見られる小・低コントラストターゲットに対して特に有効である。
- 参考スコア(独自算出の注目度): 0.6280530476948474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose N EIoU YOLOv9, a lightweight detection framework based on a signal aware bounding box regression loss derived from non monotonic gradient focusing and geometric decoupling principles, referred to as N EIoU (Non monotonic Efficient Intersection over Union). The proposed loss reshapes localization gradients by combining non monotonic focusing with decoupled width and height optimization, thereby enhancing weak regression signals for hard samples with low overlap while reducing gradient interference. This design is particularly effective for small and low contrast targets commonly observed in agricultural disease imagery. The proposed N EIoU loss is integrated into a lightweight YOLOv9t architecture and evaluated on a self collected field dataset comprising 5908 rice leaf images across four disease categories and healthy leaves. Experimental results demonstrate consistent performance gains over the standard CIoU loss, achieving a mean Average Precision of 90.3 percent, corresponding to a 4.3 percent improvement over the baseline, with improved localization accuracy under stricter evaluation criteria. For practical validation, the optimized model is deployed on an Android device using TensorFlow Lite with Float16 quantization, achieving an average inference time of 156 milliseconds per frame while maintaining accuracy. These results confirm that the proposed approach effectively balances accuracy, optimization stability, and computational efficiency for edge based agricultural monitoring systems.
- Abstract(参考訳): 本研究では,N EIoU(Non monotonic Efficient Intersection over Union)と呼ばれる非単調勾配集中と幾何デカップリング原理から導かれる信号認識ボックス回帰損失に基づく,軽量検出フレームワークであるN EIoU YOLOv9を提案する。
提案した損失は,非単調な焦点を分離した幅と高さの最適化と組み合わせることで局所化勾配を再現し,勾配干渉を低減しつつ,重なり合いの低い硬質試料に対する弱い回帰信号の低減を図った。
このデザインは農業病の画像でよく見られる小・低コントラストターゲットに対して特に有効である。
The proposed N EIoU loss is integrated into a lightweight YOLOv9t architecture and evaluation on a self collected field dataset including 5908 rice leaves images across four disease categories and healthy leaves。
実験の結果、標準CIoU損失よりも一貫したパフォーマンス向上を示し、平均平均精度は90.3%、基準値よりも4.3%改善され、より厳密な評価基準下でのローカライゼーション精度が向上した。
実用的な検証のために、最適化されたモデルは、TensorFlow LiteとFloat16量子化を使用してAndroidデバイスにデプロイされる。
これらの結果から, エッジ型農業モニタリングシステムの精度, 最適化安定性, 計算効率を効果的にバランスさせることが確認できた。
関連論文リスト
- BadCLIP++: Stealthy and Persistent Backdoors in Multimodal Contrastive Learning [73.46118996284888]
マルチモーダル・コントラスト学習モデルに対するバックドア攻撃の研究は、ステルスネスと永続性という2つの大きな課題に直面している。
両課題に対処する統合フレームワークであるBadCLIP++を提案する。
ステルスネスのために,タスク関連領域付近に知覚不可能なパターンを埋め込むセマンティックフュージョンQRマイクロトリガーを導入する。
持続性については、半径縮小とセントロイドアライメントによるトリガ埋め込みを安定化する。
論文 参考訳(メタデータ) (2026-02-19T08:31:16Z) - Enhancing YOLOv11n for Reliable Child Detection in Noisy Surveillance Footage [0.0]
本稿では,低品質監視映像における子検出の実用的で軽量な方法を提案する。
効率的なYOLOv11nアーキテクチャを基盤として,困難条件下での検知を改善するデプロイメント対応パイプラインを提案する。
パイプライン全体が低消費電力エッジデバイスとの互換性を維持し、リアルタイムのパフォーマンスをサポートする。
論文 参考訳(メタデータ) (2026-02-11T07:27:47Z) - Smooth Operator: Smooth Verifiable Reward Activates Spatial Reasoning Ability of Vision-Language Model [18.526821056010384]
視覚言語モデル(VLM)は、3次元シーン理解のための正確な数値予測を実現する上で重要なボトルネックに直面している。
伝統的な強化学習アプローチは、主に相対的なランクに基づいており、しばしば深刻な報酬の分散と勾配不安定に悩まされる。
本稿では,Smooth Numerical Reward Activation (SNRA)演算子とAbsolute-Preserving GRPOフレームワークを紹介する。
論文 参考訳(メタデータ) (2026-01-12T16:26:42Z) - Noise-Robust Tiny Object Localization with Flows [63.60972031108944]
フレキシブルなエラーモデリングと不確実性誘導最適化に正規化フローを活用するノイズローバストローカライゼーションフレームワークを提案する。
本手法は,フローベース誤差モデルを用いて,複雑な非ガウス予測分布を抽出し,ノイズの多い監視下で頑健な学習を可能にする。
不確実性を考慮した勾配変調機構は、トレーニングを安定化しながら過度な適合を緩和し、高不確実でノイズの強いサンプルからの学習をさらに抑制する。
論文 参考訳(メタデータ) (2026-01-02T09:16:55Z) - TY-RIST: Tactical YOLO Tricks for Real-time Infrared Small Target Detection [6.0340092200636475]
赤外線小目標検出(IRSTD)は、防衛と監視に重要であるが、依然として困難である。
我々は、ストライド対応のバックボーンと微粒な受容場を統合した、最適化されたYOLOv12nアーキテクチャであるTY-RISTを提案する。
4つのベンチマークと20の異なるモデルの実験では、最先端のパフォーマンスを示し、0.5 IoUでmAPを+7.9%、精度を+3%、リコールを+10.2%改善した。
論文 参考訳(メタデータ) (2025-09-26T20:36:57Z) - A Lightweight and Robust Framework for Real-Time Colorectal Polyp Detection Using LOF-Based Preprocessing and YOLO-v11n [2.4896276458398785]
本研究では,ポリプ検出のための新しい,軽量で効率的なフレームワークを提案する。
ノイズの多いデータをフィルタリングするLocal Outlier Factorアルゴリズムと、YOLO-v11nディープラーニングモデルを組み合わせる。
従来のYOLO法と比較して精度と効率が向上した。
論文 参考訳(メタデータ) (2025-07-14T23:36:54Z) - LAM-YOLO: Drones-based Small Object Detection on Lighting-Occlusion Attention Mechanism YOLO [0.9062164411594178]
LAM-YOLOは、ドローンベースの画像に特化して設計されたオブジェクト検出モデルである。
我々は、異なる照明条件下での小さな目標の視認性を高めるために、光遮断注意機構を導入する。
次に、回帰損失関数として改良されたSIB-IoUを用いてモデル収束を加速し、局所化精度を向上させる。
論文 参考訳(メタデータ) (2024-11-01T10:00:48Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Align-DETR: Enhancing End-to-end Object Detection with Aligned Loss [35.11300328598727]
本稿では,モデル内の2つの重要な相違点を同定する。
両課題間の相違を解決するために,Align Lossと呼ばれる新たな損失関数を導入する。
提案手法は,ResNet-50バックボーンを用いたH-DETRベースライン上で49.3% (+0.6) APを実現する。
論文 参考訳(メタデータ) (2023-04-15T10:24:51Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。