論文の概要: Tea Chrysanthemum Detection under Unstructured Environments Using the
TC-YOLO Model
- arxiv url: http://arxiv.org/abs/2111.02724v1
- Date: Thu, 4 Nov 2021 10:12:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 12:39:44.872702
- Title: Tea Chrysanthemum Detection under Unstructured Environments Using the
TC-YOLO Model
- Title(参考訳): TC-YOLOモデルを用いた非構造環境下での茶の菊検出
- Authors: Chao Qi (1), Junfeng Gao (2), Simon Pearson (2), Helen Harman (2),
Kunjie Chen (1), Lei Shu (1) ((1) Nanjing Agricultural University, (2)
University of Lincoln)
- Abstract要約: 茶菊検出(TC-YOLO)のためのYOLOに基づく高度に融合した軽量なディープラーニングアーキテクチャを提案する。
この方法は、Cross-Stage partially Dense Network (DenseNet) をメインネットワークとして使用し、勾配の流れをガイドするためにカスタム機能融合モジュールを埋め込む。
茶菊データセットの平均精度(AP)は92.49%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tea chrysanthemum detection at its flowering stage is one of the key
components for selective chrysanthemum harvesting robot development. However,
it is a challenge to detect flowering chrysanthemums under unstructured field
environments given the variations on illumination, occlusion and object scale.
In this context, we propose a highly fused and lightweight deep learning
architecture based on YOLO for tea chrysanthemum detection (TC-YOLO). First, in
the backbone component and neck component, the method uses the Cross-Stage
Partially Dense Network (CSPDenseNet) as the main network, and embeds custom
feature fusion modules to guide the gradient flow. In the final head component,
the method combines the recursive feature pyramid (RFP) multiscale fusion
reflow structure and the Atrous Spatial Pyramid Pool (ASPP) module with cavity
convolution to achieve the detection task. The resulting model was tested on
300 field images, showing that under the NVIDIA Tesla P100 GPU environment, if
the inference speed is 47.23 FPS for each image (416 * 416), TC-YOLO can
achieve the average precision (AP) of 92.49% on our own tea chrysanthemum
dataset. In addition, this method (13.6M) can be deployed on a single mobile
GPU, and it could be further developed as a perception system for a selective
chrysanthemum harvesting robot in the future.
- Abstract(参考訳): 開花期における茶菊の検出は、選択的な菊収穫ロボット開発の鍵となる要素の一つである。
しかし, 照明, 閉塞, 物体スケールの違いから, 未構造化環境下での開花菊の検出は困難である。
そこで本研究では,茶菊検出(TC-YOLO)のためのYOLOに基づく,高度に融合した軽量なディープラーニングアーキテクチャを提案する。
まず、バックボーンコンポーネントとネックコンポーネントでは、CSPDenseNet(Cross-Stage partially Dense Network)をメインネットワークとして使用し、勾配フローをガイドするためにカスタム機能融合モジュールを埋め込む。
最終ヘッドコンポーネントにおいて、再帰的特徴ピラミッド(rfp)の多スケール融合再フロー構造とアトース空間ピラミッドプール(aspp)モジュールとキャビティ畳み込みを組み合わせることにより、検出タスクを実現する。
結果は300のフィールドイメージでテストされ、NVIDIA Tesla P100 GPU環境下で、各画像(416×416)の推論速度が47.23 FPSであれば、TC-YOLOは、私たちの茶菊データセットの平均精度(AP)が92.49%に達することを示した。
さらに、この手法 (13.6M) は単一のモバイルGPU上に展開することができ、将来は選択的菊収穫ロボットの認識システムとしてさらに発展させることができる。
関連論文リスト
- FlatFusion: Delving into Details of Sparse Transformer-based Camera-LiDAR Fusion for Autonomous Driving [63.96049803915402]
多様なセンサーのモダリティからのデータの統合は、自律運転のシナリオにおいて一般的な方法論となっている。
効率的な点雲変換器の最近の進歩は、スパースフォーマットにおける情報統合の有効性を裏付けている。
本稿では,Transformer を用いた sparse cameraLiDAR 融合における設計選択を包括的に検討する。
論文 参考訳(メタデータ) (2024-08-13T11:46:32Z) - Multi-Branch Auxiliary Fusion YOLO with Re-parameterization Heterogeneous Convolutional for accurate object detection [3.7793767915135295]
本稿では,MAF-YOLOという新しいモデルを提案する。
Multi-Branch Auxiliary FPN (MAFPN) という名前の汎用ネックを持つ新しいオブジェクト検出フレームワークである。
例えばMAF-YOLOのナノバージョンを使用すれば、3.76Mの学習可能なパラメータと10.51GのFLOPでCOCO上の42.4%のAPを達成でき、YOLOv8nを約5.1%上回る。
論文 参考訳(メタデータ) (2024-07-05T09:35:30Z) - Randomize to Generalize: Domain Randomization for Runway FOD Detection [1.4249472316161877]
細い物体検出は、小型化、低解像度化、オクルージョン化、背景クラッタ、照明条件、被写体対画像比の小さいため困難である。
本稿では,SRIA(Synthetic Image Augmentation)の新たな2段階手法を提案する。
検出精度は初期41%からOODテストセットの92%に改善した。
論文 参考訳(メタデータ) (2023-09-23T05:02:31Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - PE-YOLO: Pyramid Enhancement Network for Dark Object Detection [9.949687351946038]
ピラミッド拡張ネットワーク (PENet) を提案し, YOLOv3 と結合して PE-YOLO というダークオブジェクト検出フレームワークを構築する。
PE-YOLOはエンドツーエンドのジョイントトレーニングアプローチを採用し、通常の検出損失のみを使用してトレーニングプロセスを簡素化する。
結果:PE-YOLOは、それぞれmAPが78.0%、FPSが53.6%であり、異なる低照度条件下での物体検出に適応できる。
論文 参考訳(メタデータ) (2023-07-20T15:25:55Z) - MLF-DET: Multi-Level Fusion for Cross-Modal 3D Object Detection [54.52102265418295]
MLF-DETと呼ばれる,高性能なクロスモーダル3DオブジェクトDrectionのための,新規かつ効果的なマルチレベルフュージョンネットワークを提案する。
特徴レベルの融合では、マルチスケールのボクセル特徴と画像の特徴を密集したマルチスケールのボクセル画像融合(MVI)モジュールを提示する。
本稿では,画像のセマンティクスを利用して検出候補の信頼度を補正するFCR(Feature-cued Confidence Rectification)モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-18T11:26:02Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - DAMO-YOLO : A Report on Real-Time Object Detection Design [19.06518351354291]
本稿では,最新のYOLOシリーズよりも高速かつ高精度なオブジェクト検出手法であるDAMO-YOLOを提案する。
我々は最大エントロピーの原理で導かれるMAE-NASを用いて検出バックボーンを探索する。
「首と首のデザインでは、大首と小首の規則に従っている。」
論文 参考訳(メタデータ) (2022-11-23T17:59:12Z) - Pyramid R-CNN: Towards Better Performance and Adaptability for 3D Object
Detection [89.66162518035144]
点雲から2段階の3Dオブジェクトを検出するための柔軟で高性能なフレームワークであるPraamid R-CNNを提案する。
興味の疎い点から特徴を適応的に学習するために,ピラミッドRoIヘッドという新しい第2段モジュールを提案する。
我々のピラミッドRoIヘッドはスパースかつ不均衡な状況に対して堅牢であり、検出性能を継続的に向上するために様々な3Dバックボーンに適用することができる。
論文 参考訳(メタデータ) (2021-09-06T14:17:51Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。