論文の概要: A Vision-Based Navigation System for Arable Fields
- arxiv url: http://arxiv.org/abs/2309.11989v2
- Date: Tue, 28 May 2024 09:07:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 04:26:52.962199
- Title: A Vision-Based Navigation System for Arable Fields
- Title(参考訳): 可視性フィールドのための視覚に基づくナビゲーションシステム
- Authors: Rajitha de Silva, Grzegorz Cielniak, Junfeng Gao,
- Abstract要約: 耕作地における視覚に基づくナビゲーションシステムは、農業用ロボットナビゲーションの未調査領域である。
現在のソリューションは、しばしば作物特有のものであり、照明や雑草密度といった限られた個々の条件に対処することを目的としている。
本稿では、安価な視覚センサを用いたディープラーニングに基づく認識アルゴリズムの集合体について提案する。
- 参考スコア(独自算出の注目度): 7.338061223686544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-based navigation systems in arable fields are an underexplored area in agricultural robot navigation. Vision systems deployed in arable fields face challenges such as fluctuating weed density, varying illumination levels, growth stages and crop row irregularities. Current solutions are often crop-specific and aimed to address limited individual conditions such as illumination or weed density. Moreover, the scarcity of comprehensive datasets hinders the development of generalised machine learning systems for navigating these fields. This paper proposes a suite of deep learning-based perception algorithms using affordable vision sensors for vision-based navigation in arable fields. Initially, a comprehensive dataset that captures the intricacies of multiple crop seasons, various crop types, and a range of field variations was compiled. Next, this study delves into the creation of robust infield perception algorithms capable of accurately detecting crop rows under diverse conditions such as different growth stages, weed density, and varying illumination. Further, it investigates the integration of crop row following with vision-based crop row switching for efficient field-scale navigation. The proposed infield navigation system was tested in commercial arable fields traversing a total distance of 4.5 km with average heading and cross-track errors of 1.24{\deg} and 3.32 cm respectively.
- Abstract(参考訳): 耕作地における視覚に基づくナビゲーションシステムは、農業用ロボットナビゲーションの未調査領域である。
耕作可能な畑に配備された視覚システムは、雑草密度の変動、照明レベルの変化、成長段階、作物列の不規則といった課題に直面している。
現在のソリューションは、しばしば作物特有のものであり、照明や雑草密度といった限られた個々の条件に対処することを目的としている。
さらに、包括的なデータセットの不足は、これらの分野をナビゲートする汎用機械学習システムの開発を妨げる。
本稿では、安価な視覚センサを用いたディープラーニングに基づく認識アルゴリズムの集合体について提案する。
初めは、複数の作物の季節、様々な作物の種類、および様々な畑の変動の複雑さを捉える包括的データセットがコンパイルされた。
次に, 異なる生育段階, 雑草密度, 様々な照明条件下で, 作物列を正確に検出できる頑健な内野認識アルゴリズムの開発について検討した。
さらに、効率的なフィールドスケールナビゲーションのための、視覚に基づく作物列切替と追従する作物列の統合について検討する。
提案した内野航法システムは,平均航路誤差 1.24{\deg} と3.32 cm の4.5kmの距離を横断する商業耕地で試験された。
関連論文リスト
- Amirkabir campus dataset: Real-world challenges and scenarios of Visual
Inertial Odometry (VIO) for visually impaired people [3.7998592843098336]
上記の問題に対処し,ナビゲーションシステムを改善するために,Amirkabirキャンパスデータセット(AUT-VI)を導入する。
AUT-VIは17の異なる場所で126の異なる配列を持つ、新しくて超混成的なデータセットである。
進行中の開発作業のサポートとして、データキャプチャ用のAndroidアプリケーションを一般向けにリリースしました。
論文 参考訳(メタデータ) (2024-01-07T23:13:51Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - CWD30: A Comprehensive and Holistic Dataset for Crop Weed Recognition in
Precision Agriculture [1.64709990449384]
精密農業における作物雑草認識タスクに適した大規模・多種多様・包括的・階層的データセットであるCWD30データセットを提示する。
CWD30は20種の雑草と10種の高解像度画像を219,770枚以上、様々な成長段階、複数の視角、環境条件を含む。
データセットの階層的な分類は、きめ細かい分類を可能にし、より正確で堅牢で一般化可能なディープラーニングモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-05-17T09:39:01Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Deep learning-based Crop Row Detection for Infield Navigation of
Agri-Robots [10.386591972977207]
本稿では、安価なカメラを用いて、フィールド変動に耐えられるロバストな作物列検出アルゴリズムを提案する。
複数の生育段階、光度、雑草密度の変化、曲がりくねった作物の列、不連続な作物の列からなる11のフィールド変動を表すサトウキビ画像のデータセットを作成した。
提案アルゴリズムは, 基準値よりも高いフィールド条件下で, 頑健な視覚に基づく作物の列検出を実証した。
論文 参考訳(メタデータ) (2022-09-09T12:47:24Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Towards Space-to-Ground Data Availability for Agriculture Monitoring [0.0]
本稿では,クラウドソーシングプラットフォームであるMapillaryのストリートレベル画像とともに,Sentinel-1レーダとSentinel-2光画像時系列を含む地上空間データセットを提案する。
これらの異なるデータドメイン上で機械学習とディープラーニングのアルゴリズムをトレーニングし、意思決定の信頼性を高めるための融合技術の可能性を強調します。
論文 参考訳(メタデータ) (2022-05-16T14:35:48Z) - Towards Autonomous Crop-Agnostic Visual Navigation in Arable Fields [2.6323812778809907]
本稿では,視覚に基づくナビゲーション方式を導入し,ロボットを行グラフのフィールドから確実に誘導する手法を提案する。
新たな作物群検出技術と新しい作物群切替技術によって,ナビゲーション手法を幅広い分野に展開することが可能となった。
論文 参考訳(メタデータ) (2021-09-24T12:54:42Z) - GANav: Group-wise Attention Network for Classifying Navigable Regions in
Unstructured Outdoor Environments [54.21959527308051]
本稿では,RGB画像から,オフロード地形および非構造環境における安全かつ航行可能な領域を識別する新しい学習手法を提案する。
本手法は,粒度の粗いセマンティックセグメンテーションを用いて,そのナビビリティレベルに基づいて地形分類群を分類する。
RUGD と RELLIS-3D のデータセットを広範囲に評価することにより,我々の学習アルゴリズムがナビゲーションのためのオフロード地形における視覚知覚の精度を向上させることを示す。
論文 参考訳(メタデータ) (2021-03-07T02:16:24Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。