論文の概要: Enhancing Cognitive Robotics with Commonsense through LLM-Generated Preconditions and Subgoals
- arxiv url: http://arxiv.org/abs/2512.00069v1
- Date: Mon, 24 Nov 2025 11:16:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.035913
- Title: Enhancing Cognitive Robotics with Commonsense through LLM-Generated Preconditions and Subgoals
- Title(参考訳): LLM生成前提条件とサブゴールによるコモンセンスによる認知ロボティクスの強化
- Authors: Ohad Bachner, Bar Gamliel,
- Abstract要約: 伝統的な象徴的なプランナーは、明示的に記述するために隠れた前提条件と小さなサブゴールが必要である。
このプロジェクトでは、大きな言語モデルとシンボリックプランニングを組み合わせています。
我々のシステムは、より有効な計画を作成し、より高いタスク成功率を達成し、環境の変化に適応する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robots often fail at everyday tasks because instructions skip commonsense details like hidden preconditions and small subgoals. Traditional symbolic planners need these details to be written explicitly, which is time consuming and often incomplete. In this project we combine a Large Language Model with symbolic planning. Given a natural language task, the LLM suggests plausible preconditions and subgoals. We translate these suggestions into a formal planning model and execute the resulting plan in simulation. Compared to a baseline planner without the LLM step, our system produces more valid plans, achieves a higher task success rate, and adapts better when the environment changes. These results suggest that adding LLM commonsense to classical planning can make robot behavior in realistic scenarios more reliable.
- Abstract(参考訳): ロボットは、隠れた前提条件や小さなサブゴールのような常識的な詳細をスキップするため、日常的なタスクで失敗することが多い。
伝統的なシンボリックプランナーはこれらの詳細を明示的に記述する必要があるが、これは時間がかかり、しばしば不完全である。
このプロジェクトでは、大きな言語モデルとシンボリックプランニングを組み合わせています。
自然言語のタスクが与えられた後、LLMは妥当な前提条件とサブゴールを提案する。
我々はこれらの提案を形式的な計画モデルに変換し、その結果の計画をシミュレーションで実行します。
LLMステップのないベースラインプランナと比較して、より有効な計画を作成し、タスクの成功率を高め、環境の変化に適応する。
これらの結果は,従来の計画にLLMコモンセンスを加えることで,現実的なシナリオにおけるロボットの動作をより信頼性の高いものにすることができることを示唆している。
関連論文リスト
- Can LLM-Reasoning Models Replace Classical Planning? A Benchmark Study [0.0]
大規模言語モデルは、ロボットタスク計画への関心を喚起している。
これらのモデルは強力な生成能力を示すが、構造的かつ実行可能な計画の作成における有効性は未だ不明である。
本稿では,芸術言語モデルの現状の幅広いスペクトルを体系的に評価する。
論文 参考訳(メタデータ) (2025-07-31T14:25:54Z) - Think Small, Plan Smart: Minimalist Symbolic Abstraction and Heuristic Subspace Search for LLM-Guided Task Planning [19.421916137269275]
大規模言語モデル(LLM)は、複雑で曖昧な自然言語命令を実行可能な計画に変換するための有望なインターフェースを提供する。
最近のフレームワークは、まずアクションモデル(Planning Domain Definition Language)を生成し、次に検索を適用することで、LCMとシンボリックプランナーを組み合わせる。
抽象的シンボル表現とメタヒューリスティックな部分空間探索を並列かつ反復的に統合する2段階のLLMシンボリック計画フレームワークPLAHXを提案する。
論文 参考訳(メタデータ) (2025-01-25T13:33:22Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - EgoPlan-Bench: Benchmarking Multimodal Large Language Models for Human-Level Planning [84.6451394629312]
実世界のシナリオにおけるMLLMの計画能力を評価するベンチマークであるEgoPlan-Benchを紹介する。
EgoPlan-Benchは、人間レベルのタスクプランニングを実現するためのMLLMの改善のかなりの範囲を浮き彫りにする。
また,EgoPlan-Bench上でのモデル性能を効果的に向上する特殊命令チューニングデータセットであるEgoPlan-ITを提案する。
論文 参考訳(メタデータ) (2023-12-11T03:35:58Z) - Conformal Temporal Logic Planning using Large Language Models [26.793426646439073]
我々は、自然言語(NL)で表される複数のハイレベルなサブタスクを、時間的・論理的な順序で達成する必要があるとみなす。
私たちの目標は、ロボットアクションのシーケンスとして定義された計画を立てることです。
我々は,既存の象徴的プランナーの新たな統合に依存した階層型ニューロシンボリックプランナーであるHERACLEsを提案する。
論文 参考訳(メタデータ) (2023-09-18T19:05:25Z) - Embodied Task Planning with Large Language Models [86.63533340293361]
本研究では,現場制約を考慮した地上計画のための具体的タスクにおけるTAsk Planing Agent (TaPA)を提案する。
推論の際には,オープンボキャブラリオブジェクト検出器を様々な場所で収集された多視点RGB画像に拡張することにより,シーン内の物体を検出する。
実験の結果,我々のTaPAフレームワークから生成されたプランは,LLaVAやGPT-3.5よりも大きなマージンで高い成功率が得られることがわかった。
論文 参考訳(メタデータ) (2023-07-04T17:58:25Z) - Plansformer: Generating Symbolic Plans using Transformers [24.375997526106246]
大規模言語モデル(LLM)は、自然言語処理(NLP)分野を著しく進歩させ、活発な研究対象となっている。
プランフォーマーは計画上の問題に微調整され、知識工学の努力を減らし、正確さと長さの点で良好な行動で計画を生成することができる。
Plansformerの1つの構成では、97%の有効なプランが達成されます。
論文 参考訳(メタデータ) (2022-12-16T19:06:49Z) - Neuro-Symbolic Causal Language Planning with Commonsense Prompting [67.06667162430118]
言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
論文 参考訳(メタデータ) (2022-06-06T22:09:52Z) - Language Models as Zero-Shot Planners: Extracting Actionable Knowledge
for Embodied Agents [111.33545170562337]
自然言語で表現された高レベルなタスクを、選択された実行可能なステップのセットに基底付ける可能性について検討する。
事前学習したLMが十分に大きく、適切に誘導された場合、ハイレベルなタスクを効果的に低レベルな計画に分解できることがわかった。
本稿では,既存の実演の条件を規定し,計画が許容可能な行動に意味的に変換される手順を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。