論文の概要: MetaCropFollow: Few-Shot Adaptation with Meta-Learning for Under-Canopy Navigation
- arxiv url: http://arxiv.org/abs/2411.14092v1
- Date: Thu, 21 Nov 2024 12:58:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:20:43.596111
- Title: MetaCropFollow: Few-Shot Adaptation with Meta-Learning for Under-Canopy Navigation
- Title(参考訳): MetaCropFollow: アンダーキャノピーナビゲーションのためのメタラーニングによるFew-Shot Adaptation
- Authors: Thomas Woehrle, Arun N. Sivakumar, Naveen Uppalapati, Girish Chowdhary,
- Abstract要約: キーポイントベースのビジュアルナビゲーションは、アンダーキャノピー環境でうまく機能することが示されている。
我々は、新しい条件に迅速に適応できるベースラーナーを訓練し、低データ体制でのより堅牢なナビゲーションを可能にします。
- 参考スコア(独自算出の注目度): 4.923031976899536
- License:
- Abstract: Autonomous under-canopy navigation faces additional challenges compared to over-canopy settings - for example the tight spacing between the crop rows, degraded GPS accuracy and excessive clutter. Keypoint-based visual navigation has been shown to perform well in these conditions, however the differences between agricultural environments in terms of lighting, season, soil and crop type mean that a domain shift will likely be encountered at some point of the robot deployment. In this paper, we explore the use of Meta-Learning to overcome this domain shift using a minimal amount of data. We train a base-learner that can quickly adapt to new conditions, enabling more robust navigation in low-data regimes.
- Abstract(参考訳): 自律的なアンダーキャノピーナビゲーションは、オーバーキャノピー設定(例えば、作物列の密接な間隔、GPSの精度の低下、過剰な乱雑さ)と比較して、さらなる課題に直面します。
キーポイントに基づく視覚ナビゲーションは、これらの条件下ではうまく機能することが示されているが、照明、季節、土壌、作物の種類で農業環境の違いは、ロボットの展開のどこかの時点でドメインシフトが発生する可能性があることを意味している。
本稿では,メタラーニング(Meta-Learning)を用いて,この領域シフトを最小限のデータ量で克服する方法について検討する。
我々は、新しい条件に迅速に適応できるベースラーナーを訓練し、低データ体制でのより堅牢なナビゲーションを可能にします。
関連論文リスト
- AdaCropFollow: Self-Supervised Online Adaptation for Visual Under-Canopy Navigation [31.214318150001947]
アンダーキャノピー農業ロボットは、精密なモニタリング、スプレー、雑草、植物操作などの様々な応用を可能にする。
本稿では,視覚的基礎モデル,幾何学的事前,擬似ラベリングを用いて意味キーポイント表現を適応するための自己教師付きオンライン適応手法を提案する。
これにより、人間による介入を必要とせずに、畑や作物をまたがるアンダーキャノピーロボットの完全な自律的な行追尾が可能になる。
論文 参考訳(メタデータ) (2024-10-16T09:52:38Z) - Hierarchical end-to-end autonomous navigation through few-shot waypoint detection [0.0]
人間のナビゲーションはランドマークと行動の関連によって促進される。
現在の自律ナビゲーション方式は、正確な位置決め装置とアルゴリズム、および環境から収集されたセンサーデータの広範なストリームに依存している。
本研究では,移動ロボットがこれまで知られていなかった環境をナビゲートできる階層型メタ学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-23T00:03:39Z) - Lessons from Deploying CropFollow++: Under-Canopy Agricultural Navigation with Keypoints [4.825377557319356]
セマンティックキーポイントを用いたアンダーキャノピー農業ロボットのための視覚に基づくナビゲーションシステムを提案する。
我々のシステムであるCropFollow++は、学習されたセマンティックキーポイント表現によるモジュラーおよび解釈可能な知覚アーキテクチャを導入している。
論文 参考訳(メタデータ) (2024-04-26T22:46:17Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Wait, That Feels Familiar: Learning to Extrapolate Human Preferences for
Preference Aligned Path Planning [46.66453816117135]
Preference ExtrApolation for Terrain awarE Robot Navigation, PATERNは、視覚ナビゲーションのための演算子地形を推定するための新しいフレームワークである。
PATERNは、様々な地形や様々な照明条件に頑健に一般化し、好みに合わせてナビゲートする。
論文 参考訳(メタデータ) (2023-09-18T16:24:26Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Lifelong Topological Visual Navigation [16.41858724205884]
本稿では,生涯ナビゲーション性能を時間とともに向上させるグラフ更新戦略を用いた学習型ビジュアルナビゲーション手法を提案する。
画像に基づくトポロジグラフを構築するためのサンプリングベースの計画アルゴリズムから着想を得た結果,スペーサーグラフはベースライン法に比べてナビゲーション性能が高い。
固定的なトレーニング環境から学習するコントローラとは異なり、ロボットが配置される実環境から比較的小さなデータセットを使ってモデルを微調整できることが示される。
論文 参考訳(メタデータ) (2021-10-16T06:16:14Z) - GANav: Group-wise Attention Network for Classifying Navigable Regions in
Unstructured Outdoor Environments [54.21959527308051]
本稿では,RGB画像から,オフロード地形および非構造環境における安全かつ航行可能な領域を識別する新しい学習手法を提案する。
本手法は,粒度の粗いセマンティックセグメンテーションを用いて,そのナビビリティレベルに基づいて地形分類群を分類する。
RUGD と RELLIS-3D のデータセットを広範囲に評価することにより,我々の学習アルゴリズムがナビゲーションのためのオフロード地形における視覚知覚の精度を向上させることを示す。
論文 参考訳(メタデータ) (2021-03-07T02:16:24Z) - Beyond the Nav-Graph: Vision-and-Language Navigation in Continuous
Environments [48.898567402373324]
本研究では,連続した3次元環境下での言語誘導ナビゲーションタスクの開発を行う。
連続的な環境に配置することで、この設定は以前の作業で暗黙的に多くの仮定を持ち上げる。
論文 参考訳(メタデータ) (2020-04-06T17:49:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。