論文の概要: Agronav: Autonomous Navigation Framework for Agricultural Robots and
Vehicles using Semantic Segmentation and Semantic Line Detection
- arxiv url: http://arxiv.org/abs/2304.04333v1
- Date: Mon, 10 Apr 2023 00:06:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 16:13:56.751409
- Title: Agronav: Autonomous Navigation Framework for Agricultural Robots and
Vehicles using Semantic Segmentation and Semantic Line Detection
- Title(参考訳): Agronav:セマンティックセグメンテーションとセマンティックライン検出を用いた農業用ロボット・車両の自律ナビゲーションフレームワーク
- Authors: Shivam K Panda, Yongkyu Lee, M. Khalid Jawed
- Abstract要約: 入力画像から中心線を出力するエンド・ツー・エンドの視覚に基づく自律ナビゲーションフレームワークを提案する。
また、Agroscapesは6つの異なる作物にまたがって収集されたピクセルレベルの注釈付きデータセットで、高さと角度の異なるものから取得した。
これにより、Agroscapesでトレーニングされたフレームワークは、地上と空中の両方のロボットプラットフォームで一般化可能である。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The successful implementation of vision-based navigation in agricultural
fields hinges upon two critical components: 1) the accurate identification of
key components within the scene, and 2) the identification of lanes through the
detection of boundary lines that separate the crops from the traversable
ground. We propose Agronav, an end-to-end vision-based autonomous navigation
framework, which outputs the centerline from the input image by sequentially
processing it through semantic segmentation and semantic line detection models.
We also present Agroscapes, a pixel-level annotated dataset collected across
six different crops, captured from varying heights and angles. This ensures
that the framework trained on Agroscapes is generalizable across both ground
and aerial robotic platforms. Codes, models and dataset will be released at
\href{https://github.com/shivamkumarpanda/agronav}{github.com/shivamkumarpanda/agronav}.
- Abstract(参考訳): 農業分野における視覚に基づくナビゲーションの実現は、2つの重要な要素に依存している。
1)シーン内のキーコンポーネントの正確な識別、及び
2) 走行可能な土地から作物を分離する境界線の検出によるレーンの識別。
そこで我々は,セマンティックセグメンテーションと意味線検出モデルを用いて,入力画像から中心線を順次処理して出力する,エンド・ツー・エンドの視覚に基づく自律ナビゲーションフレームワークagronavを提案する。
また、Agroscapesは6つの異なる作物にまたがって収集されたピクセルレベルのアノテートデータセットで、高さや角度が異なる。
これにより、agroscapesで訓練されたフレームワークは、地上と空中の両方のロボットプラットフォームに一般化できる。
コード、モデル、データセットは \href{https://github.com/shivamkumarpanda/agronav}{github.com/shivamkumarpanda/agronav} でリリースされる。
関連論文リスト
- Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Transformer-Based Visual Segmentation: A Survey [118.01564082499948]
ビジュアルセグメンテーションは、画像、ビデオフレーム、またはポイントクラウドを複数のセグメンテーションまたはグループに分割する。
トランスフォーマー(Transformer)は、自然言語処理用に設計された自己アテンションに基づくニューラルネットワークの一種である。
トランスフォーマーは、様々なセグメンテーションタスクに対して堅牢で統一的で、さらにシンプルなソリューションを提供する。
論文 参考訳(メタデータ) (2023-04-19T17:59:02Z) - Graph-based Topology Reasoning for Driving Scenes [102.35885039110057]
TopoNetは、従来の知覚タスクを超えてトラフィック知識を抽象化できる最初のエンドツーエンドフレームワークである。
TopoNetを,難解なシーン理解ベンチマークOpenLane-V2で評価した。
論文 参考訳(メタデータ) (2023-04-11T15:23:29Z) - Vision-based Vineyard Navigation Solution with Automatic Annotation [2.6013566739979463]
本研究では、ブドウ畑などの密作システムにおける農業ロボットのための視覚に基づく自律ナビゲーションフレームワークを提案する。
本稿では,RGB-D画像から直接経路トラバーシビリティ・ヒートマップを推定する新しい学習手法を提案する。
訓練された経路検出モデルを用いて、行追跡と行切替モジュールからなる完全なナビゲーションフレームワークを開発した。
論文 参考訳(メタデータ) (2023-03-25T03:37:17Z) - Extended Agriculture-Vision: An Extension of a Large Aerial Image
Dataset for Agricultural Pattern Analysis [11.133807938044804]
農業ビジョンデータセットの改良版(Chiu et al., 2020b)をリリースする。
このデータセットは,3600大,高解像度(10cm/ピクセル),フルフィールド,赤緑色,近赤外画像の事前トレーニングにより拡張する。
下流分類とセマンティックセグメンテーションの両タスクにおいて、異なるコントラスト学習アプローチをベンチマークすることで、このデータの有用性を実証する。
論文 参考訳(メタデータ) (2023-03-04T17:35:24Z) - Waypoint Generation in Row-based Crops with Deep Learning and
Contrastive Clustering [1.2599533416395767]
行ベースの作物の航法経路を計画するための経路点生成のための学習に基づくアプローチを提案する。
本稿では,各点を分離可能な潜在空間に投影できる,コントラスト損失に基づく新たなウェイポイントクラスタリング手法を提案する。
提案したディープニューラルネットワークは、単一のフォワードパスで2つの特別なヘッドによるウェイポイント位置とクラスタ割り当てを同時に予測することができる。
論文 参考訳(メタデータ) (2022-06-23T11:21:04Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - Towards Autonomous Crop-Agnostic Visual Navigation in Arable Fields [2.6323812778809907]
本稿では,視覚に基づくナビゲーション方式を導入し,ロボットを行グラフのフィールドから確実に誘導する手法を提案する。
新たな作物群検出技術と新しい作物群切替技術によって,ナビゲーション手法を幅広い分野に展開することが可能となった。
論文 参考訳(メタデータ) (2021-09-24T12:54:42Z) - Fine-Grained Off-Road Semantic Segmentation and Mapping via Contrastive
Learning [7.965964259208489]
道路検出やトラバーサビリティ解析は、移動ロボットが複雑なオフロードシーンを横断するための重要な技術である。
オフロードロボットには、きめ細かいラベルを持つシーンを理解する必要がある。
本研究では,ロボットがオフロードを横断する有意義なシーン理解を実現するための,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T13:23:24Z) - MVLidarNet: Real-Time Multi-Class Scene Understanding for Autonomous
Driving Using Multiple Views [60.538802124885414]
マルチビューLidarNet(MVLidarNet)は,多層物体検出とドライビング空間分割のための2段階のディープニューラルネットワークである。
MVLidarNetは、単一のLiDARスキャンを入力として、乾燥可能な空間を同時に決定しながら、オブジェクトを検出し、分類することができる。
我々は、KITTIとはるかに大きな内部データセットの両方で結果を示し、その方法が桁違いにスケールできることを実証する。
論文 参考訳(メタデータ) (2020-06-09T21:28:17Z) - Agriculture-Vision: A Large Aerial Image Database for Agricultural
Pattern Analysis [110.30849704592592]
本稿では,農業パターンのセマンティックセグメンテーションのための大規模空中農地画像データセットであるGarmry-Visionを提案する。
各画像はRGBと近赤外線(NIR)チャンネルで構成され、解像度は1ピクセルあたり10cmである。
農家にとって最も重要な9種類のフィールド異常パターンに注釈を付ける。
論文 参考訳(メタデータ) (2020-01-05T20:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。