論文の概要: LLM-Advisor: An LLM Benchmark for Cost-efficient Path Planning across Multiple Terrains
- arxiv url: http://arxiv.org/abs/2503.01236v1
- Date: Mon, 03 Mar 2025 07:02:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:16:00.441473
- Title: LLM-Advisor: An LLM Benchmark for Cost-efficient Path Planning across Multiple Terrains
- Title(参考訳): LLM-Advisor:複数の領域にわたるコスト効率の高い経路計画のためのLCMベンチマーク
- Authors: Ling Xiao, Toshihiko Yamasaki,
- Abstract要約: マルチテランのコスト効率の高い経路計画は、ロボットナビゲーションにおいて重要な課題である。
我々は,大規模言語モデル(LLM)を経路計画の効果的なアドバイザとして活用する,プロンプトベースのアプローチ LLM-Advisor を開発した。
提案がなされると、A*アルゴリズムに提案されるパスの70.59%、RT*アルゴリズムに69.47%、LLM-A*アルゴリズムに78.70%のコスト効率が達成される。
- 参考スコア(独自算出の注目度): 27.751399400911932
- License:
- Abstract: Multi-terrain cost-efficient path planning is a crucial task in robot navigation, requiring the identification of a path from the start to the goal that not only avoids obstacles but also minimizes travel costs. This is especially crucial for real-world applications where robots need to navigate diverse terrains in outdoor environments, where recharging or refueling is difficult. However, there is very limited research on this topic. In this paper, we develop a prompt-based approach, LLM-Advisor, which leverages large language models (LLMs) as effective advisors for path planning. The LLM-Advisor selectively provides suggestions, demonstrating its ability to recognize when no modifications are necessary. When suggestions are made, 70.59% of the paths suggested for the A* algorithm, 69.47% for the RRT* algorithm, and 78.70% for the LLM-A* algorithm achieve greater cost efficiency. Since LLM-Advisor may occasionally lack common sense in their suggestions, we propose two hallucination-mitigation strategies. Furthermore, we experimentally verified that GPT-4o performs poorly in zero-shot path planning, even when terrain descriptions are clearly provided, demonstrating its low spatial awareness. We also experimentally demonstrate that using an LLM as an advisor is more effective than directly integrating it into the path-planning loop. Since LLMs may generate hallucinations, using LLMs in the loop of a search-based method (such as A*) may lead to a higher number of failed paths, demonstrating that our proposed LLM-Advisor is a better choice.
- Abstract(参考訳): マルチテランのコスト効率の高い経路計画は、ロボットナビゲーションにおいて重要な課題であり、障害を回避するだけでなく、旅行コストを最小限に抑えるために、最初から目標までの経路を特定する必要がある。
これは、ロボットが屋外環境の多様な地形をナビゲートする必要がある現実世界のアプリケーションにとって特に重要であり、充電や燃料補給が困難である。
しかし、この話題についての研究は限られている。
本稿では,大規模言語モデル(LLM)を経路計画の効果的なアドバイザとして活用する,プロンプトベースのアプローチ LLM-Advisor を提案する。
LLM-Advisorは提案を選択的に提供し、修正の必要なく認識する能力を示している。
提案がなされると、A*アルゴリズムに提案されるパスの70.59%、RT*アルゴリズムに69.47%、LLM-A*アルゴリズムに78.70%のコスト効率が達成される。
LLM-Advisorは、その提案に時々常識を欠いているため、2つの幻覚緩和戦略を提案する。
さらに,GPT-4oは,地形記述が明確に提供されても,ゼロショット経路計画において不十分な性能を示し,空間認識の低さを実証した。
また,LSMをアドバイザとして使用する方が経路計画ループに直接組み込むよりも効果的であることを示す。
LLMは幻覚を発生させる可能性があるため、探索法(A*など)のループでLLMを使用することで、より多くの経路が失敗し、提案したLLM-Advisorがよりよい選択であることを示す。
関連論文リスト
- Universal Model Routing for Efficient LLM Inference [72.65083061619752]
我々は,これまで観測されていなかった新しいLLMがテスト時に利用可能となる動的ルーティングの問題を考察する。
本稿では,各LSMを特徴ベクトルとして表現する手法を提案する。
これらの戦略が理論的に最適なルーティングルールの推定であり、エラーを定量化するための過剰なリスクを提供する。
論文 参考訳(メタデータ) (2025-02-12T20:30:28Z) - Should You Use Your Large Language Model to Explore or Exploit? [55.562545113247666]
探索・探索トレードオフに直面した意思決定エージェントを支援するために,大規模言語モデルの能力を評価する。
現在のLLMは、しばしば利用に苦労するが、小規模タスクのパフォーマンスを大幅に改善するために、コンテキスト内緩和が用いられる可能性がある。
論文 参考訳(メタデータ) (2025-01-31T23:42:53Z) - WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents [55.64361927346957]
大規模言語モデル(LLM)による規則の勾配なし学習のためのニューロシンボリックアプローチを提案する。
我々のLLMエージェントWALL-Eはモデル予測制御(MPC)上に構築されている
MinecraftとALFWorldにおけるオープンワールドの課題について、WALL-Eは既存の方法よりも高い成功率を達成する。
論文 参考訳(メタデータ) (2024-10-09T23:37:36Z) - Can LLM be a Good Path Planner based on Prompt Engineering? Mitigating the Hallucination for Path Planning [2.313664320808389]
本研究では、空間-関係変換とカリキュラムQ-Learning(S2RCQL)という革新的なモデルを提案する。
そこで我々は,Qラーニングに基づく経路計画アルゴリズムを設計し,文脈不整合の幻覚を緩和する。
プロンプトの補助情報として状態反応のQ-値を用いて,LLMの幻覚を補正する。
論文 参考訳(メタデータ) (2024-08-23T16:02:54Z) - LLM-A*: Large Language Model Enhanced Incremental Heuristic Search on Path Planning [91.95362946266577]
経路計画はロボット工学と自律航法における基本的な科学的問題である。
A*やその変種のような伝統的なアルゴリズムは、パスの妥当性を保証することができるが、状態空間が大きくなるにつれて、計算とメモリの非効率が著しく低下する。
本稿では, A* の正確なパスフィニング能力と LLM のグローバルな推論能力とを相乗的に組み合わせた LLM ベースの経路計画法を提案する。
このハイブリッドアプローチは、特に大規模シナリオにおいて、パス妥当性の完全性を維持しながら、時間と空間の複雑さの観点からパスフィニング効率を向上させることを目的としている。
論文 参考訳(メタデータ) (2024-06-20T01:24:30Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - LLM A*: Human in the Loop Large Language Models Enabled A* Search for Robotics [3.567107449359775]
本研究は,ロボットなどの移動体エージェントの(パス)計画において,Large Language Models(LLM)がいかに役立つかに焦点を当てる。
LLM A* という新しいフレームワークは LLM のコモンセンスを活用することを目的としており、ユーティリティ最適化 A* は少数ショットに近い経路計画を容易にするために提案されている。
このアプローチでは、人間からのフィードバックを受け取り、計画プロセス全体を(ホワイトボックスのように)人間に透明にします。
論文 参考訳(メタデータ) (2023-12-04T10:37:58Z) - Autonomous Tree-search Ability of Large Language Models [58.68735916408101]
大規模言語モデルは、高度なプロンプト技術で顕著な推論能力に優れています。
近年の研究では、LLMがより困難な推論タスクを解くために受動的木探索を行えるように、検索ロジックを定義するために外部プログラムを活用することが提案されている。
我々は,LLMの自律木探索能力という新しい概念を提案し,正しい解を求める探索軌跡を含む応答を自動生成する。
論文 参考訳(メタデータ) (2023-10-14T14:14:38Z) - Furthest Reasoning with Plan Assessment: Stable Reasoning Path with
Retrieval-Augmented Large Language Models [10.04323204974924]
MHQA(Multi-Hop Question Answering)は広く議論されているカテゴリである。
既存の手法では、推論パスと計画を生成するためにLarge Language Models (LLM) を採用している。
We propose a novel pipeline for MHQA called Furthest-Reasoning-with-Plan-Assessment (FuRePA)。
論文 参考訳(メタデータ) (2023-09-22T10:15:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。