論文の概要: Deep learning-based Crop Row Detection for Infield Navigation of
Agri-Robots
- arxiv url: http://arxiv.org/abs/2209.04278v2
- Date: Thu, 10 Aug 2023 15:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 16:46:17.845769
- Title: Deep learning-based Crop Row Detection for Infield Navigation of
Agri-Robots
- Title(参考訳): 深層学習に基づくアグリロボットの内界ナビゲーションのためのクロップロー検出
- Authors: Rajitha de Silva, Grzegorz Cielniak, Gang Wang, Junfeng Gao
- Abstract要約: 本稿では、安価なカメラを用いて、フィールド変動に耐えられるロバストな作物列検出アルゴリズムを提案する。
複数の生育段階、光度、雑草密度の変化、曲がりくねった作物の列、不連続な作物の列からなる11のフィールド変動を表すサトウキビ画像のデータセットを作成した。
提案アルゴリズムは, 基準値よりも高いフィールド条件下で, 頑健な視覚に基づく作物の列検出を実証した。
- 参考スコア(独自算出の注目度): 10.386591972977207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous navigation in agricultural environments is challenged by varying
field conditions that arise in arable fields. State-of-the-art solutions for
autonomous navigation in such environments require expensive hardware such as
RTK-GNSS. This paper presents a robust crop row detection algorithm that
withstands such field variations using inexpensive cameras. Existing datasets
for crop row detection does not represent all the possible field variations. A
dataset of sugar beet images was created representing 11 field variations
comprised of multiple grow stages, light levels, varying weed densities, curved
crop rows and discontinuous crop rows. The proposed pipeline segments the crop
rows using a deep learning-based method and employs the predicted segmentation
mask for extraction of the central crop using a novel central crop row
selection algorithm. The novel crop row detection algorithm was tested for crop
row detection performance and the capability of visual servoing along a crop
row. The visual servoing-based navigation was tested on a realistic simulation
scenario with the real ground and plant textures. Our algorithm demonstrated
robust vision-based crop row detection in challenging field conditions
outperforming the baseline.
- Abstract(参考訳): 農業環境における自律航行は、耕作可能な畑で発生する様々なフィールド条件によって挑戦される。
このような環境での自律ナビゲーションのための最先端のソリューションは、RTK-GNSSのような高価なハードウェアを必要とする。
本稿では,安価なカメラを用いてフィールド変動に耐えるロバストな作物列検出アルゴリズムを提案する。
クロップ列検出のための既存のデータセットは、可能なフィールドのバリエーションをすべて表現していない。
サトウキビの画像のデータセットは、複数の生育段階、光度、雑草密度、曲がった作物列、不連続な作物列からなる11のフィールド変動を表す。
提案したパイプラインは, 深層学習法を用いて作物列を分割し, 予測セグメンテーションマスクを用いて, 新たな中央作物列選択アルゴリズムを用いて中央作物の抽出を行う。
新規な作物列検出アルゴリズムは、作物列の検出性能と、作物列に沿って視覚サーボを行う能力を試験した。
ビジュアルサーボに基づくナビゲーションは、実地と植物テクスチャで現実的なシミュレーションシナリオでテストされた。
提案アルゴリズムは,フィールド条件がベースラインを上回り,強靭な視覚に基づく作物の列検出を実証した。
関連論文リスト
- Real-time object detection and robotic manipulation for agriculture
using a YOLO-based learning approach [8.482182765640022]
本研究では、畳み込みニューラルネットワーク(CNN)の2つの異なるアーキテクチャを組み合わせた新しいフレームワークを提案する。
シミュレーション環境でのクロップ画像は、ランダムな回転、収穫、明るさ、コントラスト調整を受け、データセット生成のための拡張画像を生成する。
提案手法は,ロボット操作の把握位置を明らかにするために,視覚幾何学グループモデルを用いて取得した画像データを利用する。
論文 参考訳(メタデータ) (2024-01-28T22:30:50Z) - A Vision-Based Navigation System for Arable Fields [7.338061223686544]
耕作地における視覚に基づくナビゲーションシステムは、農業用ロボットナビゲーションの未調査領域である。
現在のソリューションは、しばしば作物特有のものであり、照明や雑草密度といった限られた個々の条件に対処することを目的としている。
本稿では、安価な視覚センサを用いたディープラーニングに基づく認識アルゴリズムの集合体について提案する。
論文 参考訳(メタデータ) (2023-09-21T12:01:59Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Domain Adaptive Scene Text Detection via Subcategorization [45.580559833129165]
ドメイン適応型シーンテキストの検出について検討する。
我々は、ネットワーク過度に適合し、ノイズの多い擬似ラベルを緩和する、サブカテゴリ対応の自己学習技術であるSCASTを設計する。
SCASTは、複数の公開ベンチマークで一貫して優れた検出性能を達成する。
論文 参考訳(メタデータ) (2022-12-01T09:15:43Z) - Vision based Crop Row Navigation under Varying Field Conditions in
Arable Fields [6.088167023055281]
そこで本研究では,サトウキビとトウモロコシの11種類の畑種を用いた作物列検出用データセットを提案する。
また,作物列フィールドにおける視覚サーボのための新しい作物列検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-28T11:23:34Z) - Towards Infield Navigation: leveraging simulated data for crop row
detection [6.088167023055281]
シミュレーションによって生成されたデータとともに、小さな実世界のデータセットの利用を提案し、大規模な実世界のデータセットで訓練されたモデルと同様の作物列検出性能を得る。
提案手法は,実世界データを用いて学習した深層学習に基づく作物列検出モデルの性能を60%低減した実世界データを用いて達成することができる。
論文 参考訳(メタデータ) (2022-04-04T19:28:30Z) - Towards agricultural autonomy: crop row detection under varying field
conditions using deep learning [4.252146169134215]
本稿では,深層学習に基づく作出行検出のためのセマンティックセマンティックセグメンテーション手法の堅牢性を評価するための新しい指標を提案する。
様々なフィールド条件下で遭遇する10のカテゴリのデータセットをテストに使用した。
これらの条件が作物列検出の角精度に及ぼす影響を比較検討した。
論文 参考訳(メタデータ) (2021-09-16T23:12:08Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z) - Refined Plane Segmentation for Cuboid-Shaped Objects by Leveraging Edge
Detection [63.942632088208505]
本稿では,セグメント化された平面マスクを画像に検出されたエッジと整列するための後処理アルゴリズムを提案する。
これにより、立方体形状の物体に制限を加えながら、最先端のアプローチの精度を高めることができます。
論文 参考訳(メタデータ) (2020-03-28T18:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。