論文の概要: ATLASv2: LLM-Guided Adaptive Landmark Acquisition and Navigation on the Edge
- arxiv url: http://arxiv.org/abs/2504.10784v1
- Date: Tue, 15 Apr 2025 00:55:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:07:04.625732
- Title: ATLASv2: LLM-Guided Adaptive Landmark Acquisition and Navigation on the Edge
- Title(参考訳): ATLASv2: LLM-Guided Adaptive Landmark Acquisition and Navigation on the Edge
- Authors: Mikolaj Walczak, Uttej Kallakuri, Tinoosh Mohsenin,
- Abstract要約: ATLASv2は、細調整されたTinyLLM、リアルタイムオブジェクト検出、効率的な経路計画を統合する新しいシステムである。
我々はATLASv2を実環境において評価し、様々な物やランドマークで構築された手作りの住宅やオフィス環境について検討した。
結果は,ATLASv2が自然言語命令を効果的に解釈し,それらを低レベルなアクションに分解し,高い成功率でタスクを実行することを示す。
- 参考スコア(独自算出の注目度): 0.5243460995467893
- License:
- Abstract: Autonomous systems deployed on edge devices face significant challenges, including resource constraints, real-time processing demands, and adapting to dynamic environments. This work introduces ATLASv2, a novel system that integrates a fine-tuned TinyLLM, real-time object detection, and efficient path planning to enable hierarchical, multi-task navigation and manipulation all on the edge device, Jetson Nano. ATLASv2 dynamically expands its navigable landmarks by detecting and localizing objects in the environment which are saved to its internal knowledge base to be used for future task execution. We evaluate ATLASv2 in real-world environments, including a handcrafted home and office setting constructed with diverse objects and landmarks. Results show that ATLASv2 effectively interprets natural language instructions, decomposes them into low-level actions, and executes tasks with high success rates. By leveraging generative AI in a fully on-board framework, ATLASv2 achieves optimized resource utilization with minimal prompting latency and power consumption, bridging the gap between simulated environments and real-world applications.
- Abstract(参考訳): エッジデバイスにデプロイされる自律システムは、リソース制約、リアルタイム処理要求、動的環境への適応など、重大な課題に直面している。
この研究は、細調整されたTinyLLMとリアルタイムオブジェクト検出と効率的な経路計画を統合し、階層的でマルチタスクのナビゲーションとエッジデバイスであるJetson Nano上での操作を可能にする新しいシステムATLASv2を紹介する。
ATLASv2は、将来のタスク実行に使用する内部知識ベースに保存された環境内のオブジェクトを検出し、ローカライズすることで、ナビゲート可能なランドマークを動的に拡張する。
我々はATLASv2を実環境において評価し、様々な物やランドマークで構築された手作りの住宅やオフィス環境について検討した。
結果は,ATLASv2が自然言語命令を効果的に解釈し,それらを低レベルなアクションに分解し,高い成功率でタスクを実行することを示す。
完全にオンボードのフレームワークで生成AIを活用することで、ATLASv2は、最小限のレイテンシと消費電力で最適化されたリソース利用を実現し、シミュレートされた環境と現実世界のアプリケーション間のギャップを埋める。
関連論文リスト
- E2Map: Experience-and-Emotion Map for Self-Reflective Robot Navigation with Language Models [16.50787220881633]
大規模言語モデル(LLM)は、言語命令を実行するためのエンボディエージェントを誘導する大きな可能性を示している。
既存の手法は主に静的環境向けに設計されており、エージェント自身の経験を生かして初期計画を洗練しない。
本研究は,LLMの知識とエージェントの現実世界の経験を統合した経験・感情マップ(E2Map)を紹介する。
論文 参考訳(メタデータ) (2024-09-16T06:35:18Z) - OMEGA: Efficient Occlusion-Aware Navigation for Air-Ground Robot in Dynamic Environments via State Space Model [12.096387853748938]
地上ロボット(AGR)は、監視や災害対応に広く利用されている。
現在のAGRナビゲーションシステムは、静的環境においてよく機能する。
しかし、これらのシステムは動的で厳しい閉塞シーンの課題に直面している。
これらの問題に対処するために,効率的なAGR-Plannerを用いたOccMambaを提案する。
論文 参考訳(メタデータ) (2024-08-20T07:50:29Z) - DISCO: Embodied Navigation and Interaction via Differentiable Scene Semantics and Dual-level Control [53.80518003412016]
人間の命令によって多様なタスクに熟練した汎用的なインテリジェントホームアシストエージェントを構築することは、AI研究の長期的青写真である。
本研究では,具体的エージェントに対する原始的移動操作,すなわち指示された動詞と名詞のペアに基づいて,ナビゲートと対話の仕方について検討する。
本研究では、文脈化されたシーンモデリングと効率的な制御における非自明な進歩を特徴とするdisCOを提案する。
論文 参考訳(メタデータ) (2024-07-20T05:39:28Z) - Cognitive Planning for Object Goal Navigation using Generative AI Models [0.979851640406258]
本稿では,効率的な探索戦略を生成するオブジェクトゴールナビゲーション問題を解決するための新しいフレームワークを提案する。
我々のアプローチは,Large Language Models (LLMs) とLarge Vision-Language Models (LVLMs) を活用することで,ロボットが慣れない環境をナビゲートすることを可能にする。
論文 参考訳(メタデータ) (2024-03-30T10:54:59Z) - CorNav: Autonomous Agent with Self-Corrected Planning for Zero-Shot Vision-and-Language Navigation [73.78984332354636]
CorNavは視覚・言語ナビゲーションのための新しいゼロショットフレームワークである。
将来の計画の見直しや行動調整のための環境フィードバックが組み込まれている。
ゼロショットマルチタスク設定ですべてのベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-06-17T11:44:04Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - BEHAVIOR in Habitat 2.0: Simulator-Independent Logical Task Description
for Benchmarking Embodied AI Agents [31.499374840833124]
高速なシミュレーション速度の恩恵を受けるため、Habitat 2.0にBEHAVIORアクティビティのサブセットを組み込む。
ベンチマークがAIの分野で果たした触媒効果に触発されて、コミュニティはエンボディされたAIのための新しいベンチマークを探している。
論文 参考訳(メタデータ) (2022-06-13T21:37:31Z) - Visual-Language Navigation Pretraining via Prompt-based Environmental
Self-exploration [83.96729205383501]
本稿では,言語埋め込みの高速適応を実現するために,プロンプトベースの学習を導入する。
我々のモデルは、VLNやREVERIEを含む多様な視覚言語ナビゲーションタスクに適応することができる。
論文 参考訳(メタデータ) (2022-03-08T11:01:24Z) - Think Global, Act Local: Dual-scale Graph Transformer for
Vision-and-Language Navigation [87.03299519917019]
本稿では,2次元グラフ変換器 (DUET) を提案する。
我々は,グローバルな行動空間における効率的な探索を可能にするために,トポロジカルマップをオンザフライで構築する。
提案手法であるDUETは、目標指向の視覚・言語ナビゲーションベンチマークにおいて最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-02-23T19:06:53Z) - Environment-agnostic Multitask Learning for Natural Language Grounded
Navigation [88.69873520186017]
本稿では,視覚言語ナビゲーション(VLN)タスクと対話履歴からのナビゲーション(NDH)タスクをシームレスにトレーニングできるマルチタスクナビゲーションモデルを提案する。
実験により、環境に依存しないマルチタスク学習は、目に見える環境と目に見えない環境の間のパフォーマンスギャップを著しく減少させることが示された。
論文 参考訳(メタデータ) (2020-03-01T09:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。