論文の概要: Investigating image-based fallow weed detection performance on Raphanus
sativus and Avena sativa at speeds up to 30 km h$^{-1}$
- arxiv url: http://arxiv.org/abs/2305.10311v1
- Date: Wed, 17 May 2023 15:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 15:02:46.452950
- Title: Investigating image-based fallow weed detection performance on Raphanus
sativus and Avena sativa at speeds up to 30 km h$^{-1}$
- Title(参考訳): Raphanus sativus と Avena sativa の30 km h$^{-1}$ における画像に基づく落葉雑草検出性能の調査
- Authors: Guy R. Y. Coleman, Angus Macintyre, Michael J. Walsh, William T.
Salter
- Abstract要約: サイト特異的除草(SSWC)は、除草コストと除草剤の使用量を大幅に削減することができる。
ここでは,オープンソースのOpenWeedLocatorプラットフォームを用いて,4つのカメラ・ソフトウェアの組み合わせの性能を比較した。
- 参考スコア(独自算出の注目度): 0.3441021278275805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Site-specific weed control (SSWC) can provide considerable reductions in weed
control costs and herbicide usage. Despite the promise of machine vision for
SSWC systems and the importance of ground speed in weed control efficacy, there
has been little investigation of the role of ground speed and camera
characteristics on weed detection performance. Here, we compare the performance
of four camera-software combinations using the open-source OpenWeedLocator
platform - (1) default settings on a Raspberry Pi HQ camera, (2) optimised
software settings on a HQ camera, (3) optimised software settings on the
Raspberry Pi v2 camera, and (4) a global shutter Arducam AR0234 camera - at
speeds ranging from 5 km h$^{-1}$ to 30 km h$^{-1}$. A combined excess green
(ExG) and hue, saturation, value (HSV) thresholding algorithm was used for
testing under fallow conditions using tillage radish (Raphanus sativus) and
forage oats (Avena sativa) as representative broadleaf and grass weeds,
respectively. ARD demonstrated the highest recall among camera systems, with up
to 95.7% of weeds detected at 5 km h$^{-1}$ and 85.7% at 30 km h$^{-1}$. HQ1
and V2 cameras had the lowest recall of 31.1% and 26.0% at 30 km h$^{-1}$,
respectively. All cameras experienced a decrease in recall as speed increased.
The highest rate of decrease was observed for HQ1 with 1.12% and 0.90%
reductions in recall for every km h$^{-1}$ increase in speed for tillage radish
and forage oats, respectively. Detection of the grassy forage oats was worse
(P<0.05) than the broadleaved tillage radish for all cameras. Despite the
variations in recall, HQ1, HQ2, and V2 maintained near-perfect precision at all
tested speeds. The variable effect of ground speed and camera system on
detection performance of grass and broadleaf weeds, indicates that careful
hardware and software considerations must be made when developing SSWC systems.
- Abstract(参考訳): sswc(site-specific weed control)は、除草コストと除草剤の使用量を大幅に削減することができる。
sswcシステムにおける機械ビジョンの約束と雑草防除効果における地上速度の重要性にもかかわらず、雑草検出性能における地上速度とカメラ特性の役割についてはほとんど調査されていない。
ここでは,オープンソースのOpenWeedLocatorプラットフォームを用いた4つのカメラ/ソフトウェアの組み合わせのパフォーマンスを比較する。(1)Raspberry Pi HQカメラのデフォルト設定,(2)HQカメラのソフトウェア設定の最適化,(3)Raspberry Pi v2カメラのソフトウェア設定の最適化,(4)グローバルシャッターArducam AR0234カメラ - 5 km h$^{-1}$から30 km h$^{-1}$のスピードで比較する。
葉緑植物 (Raphanus sativus) と飼料用オオギ (Avena sativa) を代表的な広葉樹および草雑草として用いて, 葉緑植物 (ExG) と葉緑植物 (Saturation, Value, HSV) の併用試験を行った。
ARDはカメラシステムの中で最も高いリコールを示し、95.7%の雑草は5 km h$^{-1}$で、85.7%は30 km h$^{-1}$で検出された。
HQ1とV2カメラのリコール率は31.1%と26.0%でそれぞれ30 km h$^{-1}$であった。
全てのカメラは速度が上がるにつれてリコールが減った。
hq1では,1.12%,1kmh$^{-1}ごとに0.90%の速度低下が観察された。
p<0.05) は, 全カメラの広葉樹のダイコンより有意に低かった。
リコールのバリエーションにもかかわらず、HQ1、HQ2、V2はテストされた全ての速度でほぼ完全な精度を維持した。
草と広葉樹雑草の検出性能に対する地上速度とカメラシステムの可変効果は,sswcシステムの開発において注意深いハードウェアとソフトウェアを考慮しなければならないことを示している。
関連論文リスト
- Towards Scalable Insect Monitoring: Ultra-Lightweight CNNs as On-Device Triggers for Insect Camera Traps [0.10713888959520207]
カメラトラップは、自動化されたスケーラブルな生物多様性監視を実現する手段として登場した。
カメラトラップをトリガーする受動赤外線(PIR)センサーは、昆虫のような小型で素早く動く外惑星を検出するには適していない。
本研究は、低消費電力ハードウェア上で動作する超軽量畳み込みニューラルネットワークであるPIRトリガの代替を提案する。
論文 参考訳(メタデータ) (2024-11-18T15:46:39Z) - Remote Sensing for Weed Detection and Control [0.0]
ライグラスは収量と穀物の品質を大幅に低下させる可能性がある。
コストと環境への影響を制御するため、ドローンや衛星画像の雑草を検出する。
論文 参考訳(メタデータ) (2024-10-29T21:41:42Z) - CamLoPA: A Hidden Wireless Camera Localization Framework via Signal Propagation Path Analysis [59.86280992504629]
CamLoPAは、トレーニング不要の無線カメラ検出およびローカライゼーションフレームワークである。
低コストの商用オフ・ザ・シェルフ(COTS)デバイスを使用して、最小限の活動空間制約で運用する。
95.37%のスヌーピングカメラ検出精度と17.23の平均位置誤差を達成する。
論文 参考訳(メタデータ) (2024-09-23T16:23:50Z) - Learned Smartphone ISP on Mobile GPUs with Deep Learning, Mobile AI &
AIM 2022 Challenge: Report [59.831324427712815]
この課題は、効率的なエンドツーエンドのAIベースの画像処理パイプラインを開発することを目的としている。
モデルはSnapdragonの8 Gen 1 GPUで評価され、一般的なディープラーニング運用の大部分で優れた加速結果が得られた。
提案されたソリューションは、最近のすべてのモバイルGPUと互換性があり、フルHD写真を20-50ミリ秒未満で処理でき、高い忠実度を達成できる。
論文 参考訳(メタデータ) (2022-11-07T22:13:10Z) - Efficient Spatially Sparse Inference for Conditional GANs and Diffusion
Models [92.24727170517335]
既存の深部生成モデルは、未編集領域を含む出力全体をスクラッチから再合成する傾向がある。
本稿では,編集領域の計算を選択的に行う汎用手法である空間スパース推論(SSI)を提案する。
本稿では,Sparse Incremental Generative Engine (SIGE) を提案する。
論文 参考訳(メタデータ) (2022-11-03T17:59:55Z) - Neural Global Shutter: Learn to Restore Video from a Rolling Shutter
Camera with Global Reset Feature [89.57742172078454]
ローリングシャッター(RS)画像センサは、撮影中にカメラや物体が動き出すとき、幾何学的歪みに悩まされる。
本稿では,ローリングシャッターとグローバルリセット機能(RSGR)を用いて,クリーンなグローバルシャッター(GS)ビデオの復元を行う。
この機能により、修正問題をデブロアのようなものにし、不正確でコストのかかる運動推定をなくすことができる。
論文 参考訳(メタデータ) (2022-04-03T02:49:28Z) - Deep-CNN based Robotic Multi-Class Under-Canopy Weed Control in
Precision Farming [2.6085535710135654]
リアルタイム多クラス雑草識別は雑草の種特異的な処理を可能にし、除草剤の使用量を著しく減少させる。
本稿では,5つのベンチマークCNNモデルを用いた分類性能のベースラインを提案する。
我々はMobileNetV2を、リアルタイム雑草検出のためのコンパクトな自律ロボットTextitSAMBotにデプロイする。
論文 参考訳(メタデータ) (2021-12-28T03:51:55Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Balancing the Budget: Feature Selection and Tracking for Multi-Camera
Visual-Inertial Odometry [3.441021278275805]
因子グラフ最適化に基づくマルチカメラビジュアル慣性オドメトリーシステムを提案する。
攻撃的な動きと突然の照明変化を伴う狭い廊下や暗い空間など、困難な環境における動き追跡に焦点をあてる。
論文 参考訳(メタデータ) (2021-09-13T13:53:09Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - A Real-time Low-cost Artificial Intelligence System for Autonomous
Spraying in Palm Plantations [1.6799377888527687]
精密作物保護では、画像処理における(ターゲット指向)物体検出は、無人航空機(UAV、作物保護ドローン)を適切な場所にナビゲートし、農薬を適用するのに役立ちます。
本稿では,Ag-YOLO(Ag-YOLO)と呼ばれる軽深度ニューラルネットワーク(DNN)に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-06T15:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。