論文の概要: FASTNav: Fine-tuned Adaptive Small-language-models Trained for Multi-point Robot Navigation
- arxiv url: http://arxiv.org/abs/2411.13262v1
- Date: Wed, 20 Nov 2024 12:28:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:09:35.311319
- Title: FASTNav: Fine-tuned Adaptive Small-language-models Trained for Multi-point Robot Navigation
- Title(参考訳): FASTNav:マルチポイントロボットナビゲーションのための微調整型適応型小言語モデル
- Authors: Yuxuan Chen, Yixin Han, Xiao Li,
- Abstract要約: 本稿では,ロボットナビゲーションのための軽量言語モデル(SLM)の強化手法であるFASTNavを提案する。
シミュレーションと実ロボットの両方でFASTNavを用いてモデルをトレーニングし、評価し、低コスト、高精度、低応答時間でデプロイできることを証明した。
- 参考スコア(独自算出の注目度): 10.3997505825422
- License:
- Abstract: With the rapid development of large language models (LLM), robots are starting to enjoy the benefits of new interaction methods that large language models bring. Because edge computing fulfills the needs for rapid response, privacy, and network autonomy, we believe it facilitates the extensive deployment of large models for robot navigation across various industries. To enable local deployment of language models on edge devices, we adopt some model boosting methods. In this paper, we propose FASTNav - a method for boosting lightweight LLMs, also known as small language models (SLMs), for robot navigation. The proposed method contains three modules: fine-tuning, teacher-student iteration, and language-based multi-point robot navigation. We train and evaluate models with FASTNav in both simulation and real robots, proving that we can deploy them with low cost, high accuracy and low response time. Compared to other model compression methods, FASTNav shows potential in the local deployment of language models and tends to be a promising solution for language-guided robot navigation on edge devices.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な発展に伴い、ロボットは大規模言語モデルがもたらす新しい相互作用の利点を享受し始めている。
エッジコンピューティングは、迅速な応答、プライバシ、ネットワークの自律性のニーズを満たすため、さまざまな産業におけるロボットナビゲーションのための大規模なモデルの展開を促進することができると信じています。
エッジデバイス上での言語モデルのローカル展開を実現するために,いくつかのモデル強化手法を採用する。
本稿では,ロボットナビゲーションのための軽量LLM(Small Language Model, SLM)の高速化手法であるFASTNavを提案する。
提案手法は, 微調整, 教師の反復, 言語に基づく多点ロボットナビゲーションの3つのモジュールを含む。
シミュレーションと実ロボットの両方でFASTNavを用いてモデルをトレーニングし、評価し、低コスト、高精度、低応答時間でデプロイできることを証明した。
他のモデル圧縮手法と比較して、FASTNavは言語モデルの局所的な展開の可能性を示しており、エッジデバイス上での言語誘導型ロボットナビゲーションのための有望なソリューションである。
関連論文リスト
- Hyp2Nav: Hyperbolic Planning and Curiosity for Crowd Navigation [58.574464340559466]
我々は,群集ナビゲーションを実現するための双曲学習を提唱し,Hyp2Navを紹介した。
Hyp2Navは双曲幾何学の本質的な性質を活用し、ナビゲーションタスクにおける意思決定プロセスの階層的性質をよりよく符号化する。
本稿では, 効果的なソーシャルナビゲーション, 最高の成功率, 複数シミュレーション設定におけるリターンをもたらす, 双曲型ポリシーモデルと双曲型好奇性モジュールを提案する。
論文 参考訳(メタデータ) (2024-07-18T14:40:33Z) - Co-NavGPT: Multi-Robot Cooperative Visual Semantic Navigation using
Large Language Models [10.312968200748118]
Co-NavGPTは、多ボット協調視覚目標ナビゲーションのためのグローバルプランナーとしてLarge Language Modelsを統合する革新的なフレームワークである。
探索された環境データをプロンプトにエンコードし、LLMのシーン理解を強化する。
その後、探索フロンティアを各ロボットに割り当て、効率的な目標探索を行う。
論文 参考訳(メタデータ) (2023-10-11T23:17:43Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic
Control [140.48218261864153]
本研究では,インターネット規模のデータに基づいて学習した視覚言語モデルを,エンドツーエンドのロボット制御に直接組み込む方法について検討する。
提案手法は,インターネット規模のトレーニングから,RT-2による創発的能力の獲得を可能にした。
論文 参考訳(メタデータ) (2023-07-28T21:18:02Z) - VoxPoser: Composable 3D Value Maps for Robotic Manipulation with
Language Models [38.503337052122234]
大規模言語モデル(LLM)は、ロボット操作のために抽出できる豊富な行動可能な知識を持っていることが示されている。
我々は,オープンな命令セットとオープンなオブジェクトセットが与えられた様々な操作タスクに対して,ロボット軌道を合成することを目指している。
筆者らは,接触に富んだインタラクションを含むシーンのダイナミックスモデルを効率的に学習することで,提案フレームワークがオンライン体験の恩恵を享受できることを実証する。
論文 参考訳(メタデータ) (2023-07-12T07:40:48Z) - ViNT: A Foundation Model for Visual Navigation [52.2571739391896]
Visual Navigation Transformer (ViNT) は視覚に基づくロボットナビゲーションの基礎モデルである。
ViNTは、任意のナビゲーションデータセットで使用可能な、汎用的な目標達成目標でトレーニングされている。
特定のデータセットでトレーニングされたスペシャリストモデルよりも優れた、肯定的な転送を示す。
論文 参考訳(メタデータ) (2023-06-26T16:57:03Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - LM-Nav: Robotic Navigation with Large Pre-Trained Models of Language,
Vision, and Action [76.71101507291473]
本稿では,無注釈の大規模軌跡データに対するトレーニングの恩恵を享受するロボットナビゲーションシステムLM-Navを提案する。
本研究では,ナビゲーション(ViNG),画像言語アソシエーション(CLIP),言語モデリング(GPT-3)の事前学習モデルから構築可能なシステムについて述べる。
論文 参考訳(メタデータ) (2022-07-10T10:41:50Z) - Reshaping Robot Trajectories Using Natural Language Commands: A Study of
Multi-Modal Data Alignment Using Transformers [33.7939079214046]
我々は、人間とロボットのコラボレーションのための柔軟な言語ベースのインタフェースを提供する。
我々は、ユーザコマンドをエンコードする大規模言語モデルの分野における最近の進歩を生かしている。
言語コマンドによって修正されたロボット軌跡を含むデータセット上で、模倣学習を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2022-03-25T01:36:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。