論文の概要: Vision based Crop Row Navigation under Varying Field Conditions in
Arable Fields
- arxiv url: http://arxiv.org/abs/2209.14003v1
- Date: Wed, 28 Sep 2022 11:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 18:06:33.974486
- Title: Vision based Crop Row Navigation under Varying Field Conditions in
Arable Fields
- Title(参考訳): 可変場条件下における視覚に基づく作物の作付けナビゲーション
- Authors: Rajitha de Silva, Grzegorz Cielniak, Junfeng Gao
- Abstract要約: そこで本研究では,サトウキビとトウモロコシの11種類の畑種を用いた作物列検出用データセットを提案する。
また,作物列フィールドにおける視覚サーボのための新しい作物列検出アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.088167023055281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate crop row detection is often challenged by the varying field
conditions present in real-world arable fields. Traditional colour based
segmentation is unable to cater for all such variations. The lack of
comprehensive datasets in agricultural environments limits the researchers from
developing robust segmentation models to detect crop rows. We present a dataset
for crop row detection with 11 field variations from Sugar Beet and Maize
crops. We also present a novel crop row detection algorithm for visual servoing
in crop row fields. Our algorithm can detect crop rows against varying field
conditions such as curved crop rows, weed presence, discontinuities, growth
stages, tramlines, shadows and light levels. Our method only uses RGB images
from a front-mounted camera on a Husky robot to predict crop rows. Our method
outperformed the classic colour based crop row detection baseline. Dense weed
presence within inter-row space and discontinuities in crop rows were the most
challenging field conditions for our crop row detection algorithm. Our method
can detect the end of the crop row and navigate the robot towards the headland
area when it reaches the end of the crop row.
- Abstract(参考訳): 正確な作物列の検出は、実世界のアーラブルフィールドに存在する様々なフィールド条件によってしばしば挑戦される。
伝統的な色に基づくセグメンテーションは、このようなバリエーションすべてに対応できない。
農業環境における包括的なデータセットの欠如は、研究者が作物の列を検出する堅牢なセグメンテーションモデルを開発するのを妨げている。
そこで本研究では,サトウキビとトウモロコシの11種類の畑種を用いた作物列検出データセットを提案する。
また,作物列フィールドにおける視覚サーボのための新しい作物列検出アルゴリズムを提案する。
本アルゴリズムは, 耕作列, 雑草の有無, 不連続性, 成長段階, 路面電車, 影, 光レベルなど, 様々な条件下で作物列を検出する。
本手法は,ハスキーロボットの前面カメラからのRGB画像のみを用いて,作物列の予測を行う。
本手法は,古典色に基づく作物列検出基準を上回った。
群落間空間における雑草の存在と作列の不連続性は,作列検出アルゴリズムにおいて最も困難なフィールド条件であった。
本手法は,収穫行の終端を検知し,収穫行の終端に達すると,ロボットをヘッドランドエリアへ移動させる。
関連論文リスト
- Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - HarvestNet: A Dataset for Detecting Smallholder Farming Activity Using
Harvest Piles and Remote Sensing [50.4506590177605]
HarvestNetは、2020-2023年のエチオピアのティグレイとアムハラの農場の存在をマッピングするためのデータセットである。
本研究は,多くの小作システムの特徴ある収穫杭の検出に基づく新しい手法を提案する。
本研究は, 農作物のリモートセンシングが, 食品の安全地帯において, よりタイムリーかつ正確な農地評価に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-08-23T11:03:28Z) - Leaving the Lines Behind: Vision-Based Crop Row Exit for Agricultural
Robot Navigation [6.088167023055281]
提案手法は作物列の端に到達し,50cmの誤差で作物列の後方に完全に残すことができる。
論文 参考訳(メタデータ) (2023-06-09T13:02:31Z) - Deep learning-based Crop Row Detection for Infield Navigation of
Agri-Robots [10.386591972977207]
本稿では、安価なカメラを用いて、フィールド変動に耐えられるロバストな作物列検出アルゴリズムを提案する。
複数の生育段階、光度、雑草密度の変化、曲がりくねった作物の列、不連続な作物の列からなる11のフィールド変動を表すサトウキビ画像のデータセットを作成した。
提案アルゴリズムは, 基準値よりも高いフィールド条件下で, 頑健な視覚に基づく作物の列検出を実証した。
論文 参考訳(メタデータ) (2022-09-09T12:47:24Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Towards Infield Navigation: leveraging simulated data for crop row
detection [6.088167023055281]
シミュレーションによって生成されたデータとともに、小さな実世界のデータセットの利用を提案し、大規模な実世界のデータセットで訓練されたモデルと同様の作物列検出性能を得る。
提案手法は,実世界データを用いて学習した深層学習に基づく作物列検出モデルの性能を60%低減した実世界データを用いて達成することができる。
論文 参考訳(メタデータ) (2022-04-04T19:28:30Z) - Towards agricultural autonomy: crop row detection under varying field
conditions using deep learning [4.252146169134215]
本稿では,深層学習に基づく作出行検出のためのセマンティックセマンティックセグメンテーション手法の堅牢性を評価するための新しい指標を提案する。
様々なフィールド条件下で遭遇する10のカテゴリのデータセットをテストに使用した。
これらの条件が作物列検出の角精度に及ぼす影響を比較検討した。
論文 参考訳(メタデータ) (2021-09-16T23:12:08Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - WheatNet: A Lightweight Convolutional Neural Network for High-throughput
Image-based Wheat Head Detection and Counting [12.735055892742647]
本研究では,小麦頭数を正確にかつ効率的に計算し,意思決定のためのリアルタイムデータ収集を支援する新しいディープラーニングフレームワークを提案する。
モデルコムギ網とよばれ,小麦畑の幅広い環境条件において,我々のアプローチが頑健かつ正確であることを実証する。
提案手法は, 小麦頭部計数タスクにおけるMAEとRMSEの3.85と5.19をそれぞれ達成し, 他の最先端手法に比べてパラメータが有意に少ない。
論文 参考訳(メタデータ) (2021-03-17T02:38:58Z) - Refined Plane Segmentation for Cuboid-Shaped Objects by Leveraging Edge
Detection [63.942632088208505]
本稿では,セグメント化された平面マスクを画像に検出されたエッジと整列するための後処理アルゴリズムを提案する。
これにより、立方体形状の物体に制限を加えながら、最先端のアプローチの精度を高めることができます。
論文 参考訳(メタデータ) (2020-03-28T18:51:43Z) - Agriculture-Vision: A Large Aerial Image Database for Agricultural
Pattern Analysis [110.30849704592592]
本稿では,農業パターンのセマンティックセグメンテーションのための大規模空中農地画像データセットであるGarmry-Visionを提案する。
各画像はRGBと近赤外線(NIR)チャンネルで構成され、解像度は1ピクセルあたり10cmである。
農家にとって最も重要な9種類のフィールド異常パターンに注釈を付ける。
論文 参考訳(メタデータ) (2020-01-05T20:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。