論文の概要: COTONET: A custom cotton detection algorithm based on YOLO11 for stage of growth cotton boll detection
- arxiv url: http://arxiv.org/abs/2603.11717v1
- Date: Thu, 12 Mar 2026 09:22:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.989506
- Title: COTONET: A custom cotton detection algorithm based on YOLO11 for stage of growth cotton boll detection
- Title(参考訳): COTONET: 成長綿ボール検出のためのYOLO11に基づくカスタム綿検出アルゴリズム
- Authors: Guillem González, Guillem Alenyà, Sergi Foix,
- Abstract要約: 綿の収穫は、綿のカプセルを物理的に操作し、繊維の劣化を引き起こす重要な段階である。
高品質を維持するため、収穫法は綿の本質的な特性を維持するために繊細な手作業の把握をエミュレートする必要がある。
注意機構を備えた拡張カスタムYOLO11モデルであるCOTONETを提案する。
- 参考スコア(独自算出の注目度): 7.017134503032068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cotton harvesting is a critical phase where cotton capsules are physically manipulated and can lead to fibre degradation. To maintain the highest quality, harvesting methods must emulate delicate manual grasping, to preserve cotton's intrinsic properties. Automating this process requires systems capable of recognising cotton capsules across various phenological stages. To address this challenge, we propose COTONET, an enhanced custom YOLO11 model tailored with attention mechanisms to improve the detection of difficult instances. The architecture incorporates gradients in non-learnable operations to enhance shape and feature extraction. Key architectural modifications include: the replacement of convolutional blocks with Squeeze-and-Exitation blocks, a redesigned backbone integrating attention mechanisms, and the substitution of standard upsampling operations for Content Aware Reassembly of Features (CARAFE). Additionally, we integrate Simple Attention Modules (SimAM) for primary feature aggregation and Parallel Hybrid Attention Mechanisms (PHAM) for channel-wise, spatial-wise and coordinate-wise attention in the downward neck path. This configuration offers increased flexibility and robustness for interpreting the complexity of cotton crop growth. COTONET aligns with small-to-medium YOLO models utilizing 7.6M parameters and 27.8 GFLOPS, making it suitable for low-resource edge computing and mobile robotics. COTONET outperforms the standard YOLO baselines, achieving a mAP50 of 81.1% and a mAP50-95 of 60.6%.
- Abstract(参考訳): 綿の収穫は、綿のカプセルを物理的に操作し、繊維の劣化を引き起こす重要な段階である。
高品質を維持するため、収穫法は綿の本質的な特性を維持するために繊細な手作業の把握をエミュレートする必要がある。
このプロセスを自動化するには、様々な現象の段階にわたって綿のカプセルを認識できるシステムが必要である。
この課題に対処するために,注意機構を備えた拡張カスタムYOLO11モデルであるCOTONETを提案する。
このアーキテクチャは、図形と特徴抽出を強化するために、学習不可能な操作の勾配を取り入れている。
主なアーキテクチャ上の変更点は、Squeeze-and-Exitationブロックへの畳み込みブロックの置き換え、アテンション機構を統合する再設計されたバックボーン、Content Aware Reassembly of Features (CARAFE)の標準アップサンプリング操作の置換である。
さらに,主機能アグリゲーションのためのSimple Attention Modules (SimAM) と,下向きの頸部経路におけるチャネルワイド,空間ワイド,座標ワイドに対する Parallel Hybrid Attention Mechanisms (PHAM) を統合した。
この構成は、綿花栽培の複雑さを解釈するために柔軟性と堅牢性を高める。
COTONETは7.6Mパラメータと27.8GFLOPSを利用する小型から中級のYOLOモデルと整合し、低リソースエッジコンピューティングとモバイルロボティクスに適している。
COTONETは標準のYOLOベースラインより優れており、mAP50は81.1%、mAP50-95は60.6%である。
関連論文リスト
- MiniCPM-SALA: Hybridizing Sparse and Linear Attention for Efficient Long-Context Modeling [80.48332380100915]
MiniCPM-SALAは、疎注意の高忠実長文モデリングと線形注意のグローバル効率を統合するハイブリッドモデルである。
1つのNVIDIA A6000D GPUでは、256Kトークンのシーケンス長におけるフルアテンションモデルの推論速度が3.5倍に達する。
論文 参考訳(メタデータ) (2026-02-12T09:37:05Z) - Hardware-Aware YOLO Compression for Low-Power Edge AI on STM32U5 for Weeds Detection in Digital Agriculture [0.0]
本研究は、STM32U575ZIマイクロコントローラ上に展開されたYOLOv8nオブジェクト検出器に基づく雑草検出のための最適化された低消費電力エッジAIシステムを提案する。
雑草は世界中で作物の収穫を著しく減らし、持続可能な農業にとって大きな課題となっている。
論文 参考訳(メタデータ) (2025-11-11T08:55:58Z) - Every Attention Matters: An Efficient Hybrid Architecture for Long-Context Reasoning [73.10669391954801]
本稿では、Ring-mini-linear-2.0およびRing-flash-linear-2.0を含むRing-linearモデルシリーズについて述べる。
どちらのモデルも線形アテンションとソフトマックスアテンションを効果的に統合するハイブリッドアーキテクチャを採用している。
32億のパラメータ密度モデルと比較して、このシリーズは推論コストを1/10に削減し、元のRingシリーズと比較すると、コストも50%以上削減される。
論文 参考訳(メタデータ) (2025-10-22T07:59:38Z) - YOLOv11-Litchi: Efficient Litchi Fruit Detection based on UAV-Captured Agricultural Imagery in Complex Orchard Environments [6.862722449907841]
本稿では,UAVを用いたリッチ検出のための軽量で堅牢な検出モデルであるYOLOv11-Litchiを紹介する。
YOLOv11-Litchiのパラメータサイズは6.35MBで、YOLOv11ベースラインよりも32.5%小さい。
このモデルは57.2FPSのフレームレートを実現し、リアルタイム検出要求を満たす。
論文 参考訳(メタデータ) (2025-10-11T09:44:00Z) - Automated and Scalable SEM Image Analysis of Perovskite Solar Cell Materials via a Deep Segmentation Framework [6.6168431490300845]
本稿では,SEM画像セグメンテーションのためのディープラーニングフレームワークを提案する。
PerovSegNetという名前のモデルには、2つの新しいモジュールが組み込まれています。
PerovSegNetは平均平均精度87.25%で、265.4ギガ浮動小数点演算を実現している。
論文 参考訳(メタデータ) (2025-09-30T17:18:51Z) - Hybrid Deep Learning and Handcrafted Feature Fusion for Mammographic Breast Cancer Classification [0.21847754147782888]
本稿では,ResNet-50バックボーンの深い畳み込み機能と手書き記述子とトランスフォーマーベースの埋め込みを組み合わせたハイブリッドフレームワークを提案する。
CBIS-DDSMデータセットを使用して、ResNet-50ベースライン(AUC:78.1%)をベンチマークし、ディープなResNet-50とDINOv2機能による手作り機能の融合がAUCを79.6%改善することを示した。
論文 参考訳(メタデータ) (2025-07-26T07:36:44Z) - YOLO-APD: Enhancing YOLOv8 for Robust Pedestrian Detection on Complex Road Geometries [0.0]
本稿では,この課題に特化してYOLOv8フレームワークを改良した新しいディープラーニングアーキテクチャであるYOLO-APDを紹介する。
YOLO-APDは最先端の精度を達成し、77.7% mAP@0.5:0.95、例外的な歩行者リコールは96%を超えた。
リアルタイム処理能力を100 FPSで維持し、精度と効率のバランスが優れていることを示す。
論文 参考訳(メタデータ) (2025-07-07T18:03:40Z) - Minitron-SSM: Efficient Hybrid Language Model Compression through Group-Aware SSM Pruning [76.88243649182886]
注意と状態空間モデル(SSM)を組み合わせたハイブリッドアーキテクチャは、最先端の精度と実行時のパフォーマンスを達成する。
近年の研究では、アテンションのみのモデルに圧縮と蒸留を適用することで、トレーニングコストのごく一部でより小さく、より正確なモデルが得られることが示されている。
本稿では,SSMブロックの構造的整合性とそのシーケンスモデリング機能を維持するグループ対応プルーニング戦略を提案する。
論文 参考訳(メタデータ) (2025-04-15T17:26:29Z) - Masked Autoencoders Are Effective Tokenizers for Diffusion Models [56.08109308294133]
MAETokは自己エンコーダであり、再構築の忠実さを維持しながら意味的にリッチな潜在空間を学習する。
MaETokは1.69のgFIDで76倍高速トレーニングが可能で、512x512世代で31倍高い推論スループットを実現している。
論文 参考訳(メタデータ) (2025-02-05T18:42:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。