論文の概要: Leaving the Lines Behind: Vision-Based Crop Row Exit for Agricultural
Robot Navigation
- arxiv url: http://arxiv.org/abs/2306.05869v1
- Date: Fri, 9 Jun 2023 13:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 13:18:58.696089
- Title: Leaving the Lines Behind: Vision-Based Crop Row Exit for Agricultural
Robot Navigation
- Title(参考訳): 農業用ロボットナビゲーションのためのビジョンベースの作物列出口
- Authors: Rajitha de Silva, Grzegorz Cielniak, Junfeng Gao
- Abstract要約: 提案手法は作物列の端に到達し,50cmの誤差で作物列の後方に完全に残すことができる。
- 参考スコア(独自算出の注目度): 6.088167023055281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Usage of purely vision based solutions for row switching is not well explored
in existing vision based crop row navigation frameworks. This method only uses
RGB images for local feature matching based visual feedback to exit crop row.
Depth images were used at crop row end to estimate the navigation distance
within headland. The algorithm was tested on diverse headland areas with soil
and vegetation. The proposed method could reach the end of the crop row and
then navigate into the headland completely leaving behind the crop row with an
error margin of 50 cm.
- Abstract(参考訳): 既存の視覚ベースのクロップ行ナビゲーションフレームワークでは、純粋な視覚ベースの行切替ソリューションの使用は十分に検討されていない。
この方法は,局所的特徴マッチングに基づく視覚フィードバックに対してのみrgb画像を用いる。
樹冠端の深度画像を用いて,頭部内の航法距離を推定した。
このアルゴリズムは土壌と植生の多様なヘッドランドでテストされた。
提案手法は, 作物列の端部まで到達し, 50cmの誤差マージンで作物列の後方を完全に残すヘッドランドへ移動することが可能であった。
関連論文リスト
- Breaking the Frame: Visual Place Recognition by Overlap Prediction [53.17564423756082]
本稿では,重なり合う予測に基づく新しい視覚的位置認識手法 VOP を提案する。
VOPは、Vision Transformerのバックボーンを使用してパッチレベルの埋め込みを取得することで、コビジュアブルなイメージセクションを進める。
提案手法では,データベース画像の重複点の評価に投票機構を用いる。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - A Vision-Based Navigation System for Arable Fields [7.338061223686544]
耕作地における視覚に基づくナビゲーションシステムは、農業用ロボットナビゲーションの未調査領域である。
現在のソリューションは、しばしば作物特有のものであり、照明や雑草密度といった限られた個々の条件に対処することを目的としている。
本稿では、安価な視覚センサを用いたディープラーニングに基づく認識アルゴリズムの集合体について提案する。
論文 参考訳(メタデータ) (2023-09-21T12:01:59Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Vision-based Vineyard Navigation Solution with Automatic Annotation [2.6013566739979463]
本研究では、ブドウ畑などの密作システムにおける農業ロボットのための視覚に基づく自律ナビゲーションフレームワークを提案する。
本稿では,RGB-D画像から直接経路トラバーシビリティ・ヒートマップを推定する新しい学習手法を提案する。
訓練された経路検出モデルを用いて、行追跡と行切替モジュールからなる完全なナビゲーションフレームワークを開発した。
論文 参考訳(メタデータ) (2023-03-25T03:37:17Z) - Vision based Crop Row Navigation under Varying Field Conditions in
Arable Fields [6.088167023055281]
そこで本研究では,サトウキビとトウモロコシの11種類の畑種を用いた作物列検出用データセットを提案する。
また,作物列フィールドにおける視覚サーボのための新しい作物列検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-28T11:23:34Z) - Deep learning-based Crop Row Detection for Infield Navigation of
Agri-Robots [10.386591972977207]
本稿では、安価なカメラを用いて、フィールド変動に耐えられるロバストな作物列検出アルゴリズムを提案する。
複数の生育段階、光度、雑草密度の変化、曲がりくねった作物の列、不連続な作物の列からなる11のフィールド変動を表すサトウキビ画像のデータセットを作成した。
提案アルゴリズムは, 基準値よりも高いフィールド条件下で, 頑健な視覚に基づく作物の列検出を実証した。
論文 参考訳(メタデータ) (2022-09-09T12:47:24Z) - Beyond Visual Field of View: Perceiving 3D Environment with Echoes and
Vision [51.385731364529306]
本稿では,エコーとRGB画像を用いた3次元環境の知覚とナビゲーションに焦点を当てた。
特に、複数の方向から受信したエコーでRGB画像を融合して深度推定を行う。
本稿では,RGB像を補完する3次元構造について,エコーが包括的かつ包括的情報を提供することを示す。
論文 参考訳(メタデータ) (2022-07-03T22:31:47Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Towards agricultural autonomy: crop row detection under varying field
conditions using deep learning [4.252146169134215]
本稿では,深層学習に基づく作出行検出のためのセマンティックセマンティックセグメンテーション手法の堅牢性を評価するための新しい指標を提案する。
様々なフィールド条件下で遭遇する10のカテゴリのデータセットをテストに使用した。
これらの条件が作物列検出の角精度に及ぼす影響を比較検討した。
論文 参考訳(メタデータ) (2021-09-16T23:12:08Z) - Refer-it-in-RGBD: A Bottom-up Approach for 3D Visual Grounding in RGBD
Images [69.5662419067878]
RGBD画像における接地参照表現は新たな分野である。
本稿では,参照する物体が閉塞により部分的にスキャンされる場合が多い単視点rgbd画像における3次元視覚グランド化の新たな課題を提案する。
提案手法はまず,RGBD画像内の関連領域をローカライズするヒートマップを生成するために,下層の言語と視覚的特徴を融合させる。
次に、ヒートマップに基づく適応的特徴学習を行い、他のビジオ言語融合とオブジェクトレベルのマッチングを行い、最後に参照したオブジェクトを接地する。
論文 参考訳(メタデータ) (2021-03-14T11:18:50Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。