論文の概要: Lightweight Multispectral Crop-Weed Segmentation for Precision Agriculture
- arxiv url: http://arxiv.org/abs/2505.07444v1
- Date: Mon, 12 May 2025 11:08:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.35601
- Title: Lightweight Multispectral Crop-Weed Segmentation for Precision Agriculture
- Title(参考訳): 精密農業のための軽量マルチスペクトル雑草セグメンテーション
- Authors: Zeynep Galymzhankyzy, Eric Martinson,
- Abstract要約: CNNベースの手法は、複雑なフィールド条件下での性能を制限するため、RGB画像の一般化と依存に苦慮している。
本稿では,RGB,近赤外(NIR),赤外(RE)帯域を特殊なエンコーダと動的モダリティ統合を用いて処理する軽量トランスフォーマー-CNNハイブリッドを提案する。
このモデルは78.88%のセグメンテーション精度(平均IoU)を達成し、RGBのみのモデルを15.8ポイント上回る。
- 参考スコア(独自算出の注目度): 1.2277343096128712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient crop-weed segmentation is critical for site-specific weed control in precision agriculture. Conventional CNN-based methods struggle to generalize and rely on RGB imagery, limiting performance under complex field conditions. To address these challenges, we propose a lightweight transformer-CNN hybrid. It processes RGB, Near-Infrared (NIR), and Red-Edge (RE) bands using specialized encoders and dynamic modality integration. Evaluated on the WeedsGalore dataset, the model achieves a segmentation accuracy (mean IoU) of 78.88%, outperforming RGB-only models by 15.8 percentage points. With only 8.7 million parameters, the model offers high accuracy, computational efficiency, and potential for real-time deployment on Unmanned Aerial Vehicles (UAVs) and edge devices, advancing precision weed management.
- Abstract(参考訳): 作物雑草の効率的な分別は、精密農業において、現場特異的な雑草管理に重要である。
従来のCNNベースの手法は、複雑なフィールド条件下での性能を制限するため、RGB画像の一般化と依存に苦慮している。
これらの課題に対処するため、我々は軽量トランス-CNNハイブリッドを提案する。
RGB、近赤外線(NIR)、Red-Edge(RE)バンドを特殊なエンコーダと動的モダリティ統合を用いて処理する。
WeedsGaloreデータセットから評価すると、このモデルは78.88%のセグメンテーション精度(平均IoU)を達成し、RGBのみのモデルを15.8ポイント上回る。
パラメータはわずか870万であり、高精度、計算効率、無人航空機(UAV)やエッジデバイスへのリアルタイム展開の可能性を提供し、精密雑草管理を推進している。
関連論文リスト
- RGB-Event Fusion with Self-Attention for Collision Prediction [9.268995547414777]
本稿では,動的物体を持つ無人航空機の時間と衝突位置を予測するニューラルネットワークフレームワークを提案する。
提案したアーキテクチャは、2つの異なるエンコーダ分岐で構成されており、1つはモダリティ、次に自己アテンションによる融合により予測精度が向上する。
核融合モデルでは, 平均で1%, 0.5mを超える距離で10%の精度で予測精度が向上するが, メモリで+71%, FLOPで+105%のコストがかかることがわかった。
論文 参考訳(メタデータ) (2025-05-07T09:03:26Z) - SAGA: Semantic-Aware Gray color Augmentation for Visible-to-Thermal Domain Adaptation across Multi-View Drone and Ground-Based Vision Systems [1.891522135443594]
ドメイン適応型熱オブジェクト検出は、可視(RGB)から熱(IR)への適応を促進する上で重要な役割を果たす。
色やテクスチャの手がかりの欠如など、赤外線画像の固有の制限は、RGB訓練されたモデルに課題をもたらす。
本稿では,カラーバイアスを緩和し,領域ギャップを埋めるための新しい戦略であるセマンティック・アウェア・グレイカラー拡張(SAGA)を提案する。
論文 参考訳(メタデータ) (2025-04-22T09:22:11Z) - CAP-Net: A Unified Network for 6D Pose and Size Estimation of Categorical Articulated Parts from a Single RGB-D Image [86.75098349480014]
本稿では,ロボット操作作業における調音物体のカテゴリーレベルのポーズ推定に取り組む。
そこで本研究では,Categorical Articulated Partsの6次元ポーズとサイズを推定するためのシングルステージネットワークCAP-Netを提案する。
我々は,RGB画像と実センサからシミュレーションした深度雑音を特徴とするRGB-D調音データセットであるRGBD-Artデータセットを紹介した。
論文 参考訳(メタデータ) (2025-04-15T14:30:26Z) - WeedsGalore: A Multispectral and Multitemporal UAV-based Dataset for Crop and Weed Segmentation in Agricultural Maize Fields [0.7421845364041001]
雑草は作物の収穫が減少する主な原因の1つであるが、現在の雑草の慣行は、効率的で標的とした方法で雑草を管理するのに失敗している。
農作物畑における作物と雑草のセマンティックスとインスタンスセグメンテーションのための新しいデータセットを提案する。
論文 参考訳(メタデータ) (2025-02-18T18:13:19Z) - Bringing RGB and IR Together: Hierarchical Multi-Modal Enhancement for Robust Transmission Line Detection [67.02804741856512]
高速かつ高精度なTL検出のために,RGBとIRデータを統合したHMMEN(Hierarchical Multi-Modal Enhancement Network)を提案する。
提案手法では,(1)階層的RGBおよびIR特徴写像を大まかに融合・拡張するMMEB,(2)デコーダ出力とIR特徴写像の不整合を変形可能な畳み込みを利用して補正するFAB,の2つの重要な構成要素を紹介する。
論文 参考訳(メタデータ) (2025-01-25T06:21:06Z) - Handling Geometric Domain Shifts in Semantic Segmentation of Surgical RGB and Hyperspectral Images [67.66644395272075]
本稿では,幾何学的アウト・オブ・ディストリビューションデータに直面する場合の,最先端のセマンティックセマンティックセマンティクスモデルの最初の解析を行う。
本稿では, 汎用性を高めるために, 有機移植(Organ Transplantation)と呼ばれる拡張技術を提案する。
我々の拡張技術は、RGBデータに対して最大67%、HSIデータに対して90%のSOAモデル性能を改善し、実際のOODテストデータに対して、分配内パフォーマンスのレベルでのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-27T19:13:15Z) - LHU-Net: A Light Hybrid U-Net for Cost-Efficient, High-Performance Volumetric Medical Image Segmentation [4.168081528698768]
医用画像分割のための合理化ハイブリッドU-NetであるLHU-Netを紹介する。
5つのベンチマークデータセットでテストした結果、LHU-Netは優れた効率と精度を示した。
論文 参考訳(メタデータ) (2024-04-07T22:58:18Z) - Detection of Spider Mites on Labrador Beans through Machine Learning
Approaches Using Custom Datasets [0.0]
本研究では, 実環境下で収集したRGBおよびNIRデータを, JAI FS-1600D-10GEカメラを用いて, RGBNデータセットを構築することで, 植物病検出のための視覚機械学習手法を提案する。
YOLOv8とシーケンシャルCNNを用いた2段階早期植物病検出モデルを用いて、部分ラベル付きデータセットのトレーニングを行い、単一段階のエンドツーエンドセグメンテーションモデルと比較して3.6%のmAP増加を示した。
ResNet15とシーケンシャルCNNモデルを用いたRGBと比較して、RGBNを用いて平均6.25%の検証精度が向上した。
論文 参考訳(メタデータ) (2024-02-12T18:57:06Z) - Segment Any Events via Weighted Adaptation of Pivotal Tokens [85.39087004253163]
本稿では,Segment Anything Models (SAM) をイベントデータと統合する上で,難易度の高い課題に焦点を当てる。
本稿では,RGB画像とイベントデータからのトークン埋め込みのアライメントを最適化するマルチスケールな特徴蒸留手法を提案する。
論文 参考訳(メタデータ) (2023-12-24T12:47:08Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。