論文の概要: STA-Net: A Decoupled Shape and Texture Attention Network for Lightweight Plant Disease Classification
- arxiv url: http://arxiv.org/abs/2509.03754v1
- Date: Wed, 03 Sep 2025 22:46:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.9893
- Title: STA-Net: A Decoupled Shape and Texture Attention Network for Lightweight Plant Disease Classification
- Title(参考訳): STA-Net:軽量植物病分類のための分離形状とテクスチャ注意ネットワーク
- Authors: Zongsen Qiu,
- Abstract要約: DeepMADはエッジデバイスのための効率的なネットワークバックボーンを作成するために使用される。
ひとつは形状認識のための変形可能な畳み込み、もう一つはテクスチャ認識のためのGaborフィルタバンクである。
CCMT植物病データセットでは、STA-Netモデルが89.00%、F1スコア88.96%に達した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Responding to rising global food security needs, precision agriculture and deep learning-based plant disease diagnosis have become crucial. Yet, deploying high-precision models on edge devices is challenging. Most lightweight networks use attention mechanisms designed for generic object recognition, which poorly capture subtle pathological features like irregular lesion shapes and complex textures. To overcome this, we propose a twofold solution: first, using a training-free neural architecture search method (DeepMAD) to create an efficient network backbone for edge devices; second, introducing the Shape-Texture Attention Module (STAM). STAM splits attention into two branches -- one using deformable convolutions (DCNv4) for shape awareness and the other using a Gabor filter bank for texture awareness. On the public CCMT plant disease dataset, our STA-Net model (with 401K parameters and 51.1M FLOPs) reached 89.00% accuracy and an F1 score of 88.96%. Ablation studies confirm STAM significantly improves performance over baseline and standard attention models. Integrating domain knowledge via decoupled attention thus presents a promising path for edge-deployed precision agriculture AI. The source code is available at https://github.com/RzMY/STA-Net.
- Abstract(参考訳): 世界の食料安全保障の必要性の高まりに対応して、精密農業と深層学習に基づく植物病の診断が重要になっている。
しかし、エッジデバイスに高精度なモデルをデプロイすることは難しい。
ほとんどの軽量ネットワークは、一般的な物体認識のために設計された注意機構を使用しており、不規則な病変や複雑なテクスチャのような微妙な病理的特徴を捉えていない。
まず、トレーニング不要なニューラルネットワークサーチ手法(DeepMAD)を用いてエッジデバイスのための効率的なネットワークバックボーンを作成し、次に、Shape-Texture Attention Module(STAM)を導入する。
ひとつは変形可能な畳み込み(DCNv4)を形状認識に使用し、もうひとつはテクスチャ認識にGaborフィルタバンクを使用する。
CCMT植物病データセットでは、STA-Netモデル(401Kパラメータと51.1M FLOPs)の精度は89.00%、F1スコアは88.96%に達した。
アブレーション研究によりSTAMはベースラインや標準アテンションモデルよりも性能が大幅に向上することを確認した。
ドメイン知識を分離された注意で統合することは、エッジデプロイされた精密農業AIにとって有望な道を示す。
ソースコードはhttps://github.com/RzMY/STA-Netで入手できる。
関連論文リスト
- MitoDetect++: A Domain-Robust Pipeline for Mitosis Detection and Atypical Subtyping [5.8892536770897665]
MitoDetect++はMIDOG 2025チャレンジ用に設計された統合ディープラーニングパイプラインである。
検出には、EfficientNetV2-LをバックボーンとするU-Netベースのエンコーダデコーダアーキテクチャを用いる。
分類には、Lo-Rank Adaptation (LoRA) を用いて効率よく微調整されたVirchow2視覚変換器を用いて、資源消費を最小限に抑える。
論文 参考訳(メタデータ) (2025-08-28T18:19:51Z) - HieraEdgeNet: A Multi-Scale Edge-Enhanced Framework for Automated Pollen Recognition [10.159338629617919]
自動花粉認識のためのマルチスケールエッジエンハンスメントフレームワークであるHieraEdgeNetを紹介する。
フレームワークの中核となる革新は3つの相乗的モジュールの導入である。
大規模なデータセットでは、HieraEdgeNetは平均平均精度(mAP@.5)が0.9501に達し、最先端のベースラインモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2025-06-09T11:03:31Z) - Crane: Context-Guided Prompt Learning and Attention Refinement for Zero-Shot Anomaly Detection [50.343419243749054]
異常検出は、医学診断や工業的欠陥検出などの分野において重要である。
CLIPの粗粒化画像テキストアライメントは、微粒化異常に対する局所化と検出性能を制限する。
クレーンは最先端のZSADを2%から28%に改善し、画像レベルとピクセルレベルの両方で、推論速度では競争力を維持している。
論文 参考訳(メタデータ) (2025-04-15T10:42:25Z) - Soybean Disease Detection via Interpretable Hybrid CNN-GNN: Integrating MobileNetV2 and GraphSAGE with Cross-Modal Attention [1.927711700724334]
大豆の葉の病原体の検出は農業の生産性にとって重要であるが、視覚的に類似した症状と限定的な解釈可能性のために課題に直面している。
本稿では,局所化特徴抽出のためのMobileNetV2とリレーショナルモデリングのためのGraphSAGEを相乗化する,解釈可能なハイブリッドCNN-Graph Neural Network(GNN)フレームワークを提案する。
クロスモーダル解釈はGrad-CAMおよびEigen-CAMビジュアライゼーションを通じて実現され、熱マップを生成して疾患の流入領域をハイライトする。
論文 参考訳(メタデータ) (2025-03-03T08:12:09Z) - Enhanced Intrusion Detection in IIoT Networks: A Lightweight Approach with Autoencoder-Based Feature Learning [0.0]
侵入検知システム(IDS)は,異常なネットワーク行動や悪質な活動の検出・防止に不可欠である。
本研究は,次元縮小のためのオートエンコーダの活用を含む,IDS性能向上のための6つの革新的なアプローチを実装した。
我々はJetson Nano上で最初にモデルをデプロイし、バイナリ分類では0.185ms、マルチクラス分類では0.187msの推論時間を達成する。
論文 参考訳(メタデータ) (2025-01-25T16:24:18Z) - Efficient Detection Framework Adaptation for Edge Computing: A Plug-and-play Neural Network Toolbox Enabling Edge Deployment [59.61554561979589]
エッジコンピューティングは、時間に敏感なシナリオでディープラーニングベースのオブジェクト検出をデプロイするための重要なパラダイムとして登場した。
既存のエッジ検出手法では、軽量モデルによる検出精度のバランスの難しさ、適応性の制限、現実の検証の不十分といった課題に直面している。
本稿では,汎用的なプラグイン・アンド・プレイコンポーネントを用いてエッジ環境にオブジェクト検出モデルを適用するエッジ検出ツールボックス(ED-TOOLBOX)を提案する。
論文 参考訳(メタデータ) (2024-12-24T07:28:10Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - DETR Doesn't Need Multi-Scale or Locality Design [69.56292005230185]
本稿では,"プレーン"特性を維持できる改良型DETR検出器を提案する。
特定の局所性制約を伴わずに、単一スケールの機能マップとグローバルなクロスアテンション計算を使用する。
マルチスケールな特徴マップと局所性制約の欠如を補うために,2つの単純な技術が平易な設計において驚くほど効果的であることを示す。
論文 参考訳(メタデータ) (2023-08-03T17:59:04Z) - A fast accurate fine-grain object detection model based on YOLOv4 deep
neural network [0.0]
商業農場や果樹園における植物病の早期発見と予防は、精密農業技術の重要な特徴である。
本稿では,植物病の検出におけるいくつかの障害に対処する高性能なリアルタイム微粒物検出フレームワークを提案する。
提案するモデルは、You Only Look Once (YOLOv4)アルゴリズムの改良版に基づいて構築されている。
論文 参考訳(メタデータ) (2021-10-30T17:56:13Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。