論文の概要: Neuro-Symbolic Control with Large Language Models for Language-Guided Spatial Tasks
- arxiv url: http://arxiv.org/abs/2512.17321v2
- Date: Sat, 21 Feb 2026 08:57:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.42154
- Title: Neuro-Symbolic Control with Large Language Models for Language-Guided Spatial Tasks
- Title(参考訳): 言語誘導空間課題に対する大規模言語モデルを用いたニューロシンボリック制御
- Authors: Momina Liaqat Ali, Muhammad Abid, Muhammad Saqlain, Jose M. Merigo,
- Abstract要約: 低レベルの動作実行と高レベルの意味的推論を区別するニューロシンボリック・コントロール・フレームワークが提案されている。
このフレームワークは、強化学習やコストのかかるロールアウトを必要とせずに、解釈可能性、安定性、一般化を向上させる。
- 参考スコア(独自算出の注目度): 0.769971486557519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although large language models (LLMs) have recently become effective tools for language-conditioned control in embodied systems, instability, slow convergence, and hallucinated actions continue to limit their direct application to continuous control. A modular neuro-symbolic control framework that clearly distinguishes between low-level motion execution and high-level semantic reasoning is proposed in this work. While a lightweight neural delta controller performs bounded, incremental actions in continuous space, a locally deployed LLM interprets symbolic tasks. We assess the suggested method in a planar manipulation setting with spatial relations between objects specified by language. Numerous tasks and local language models, such as Mistral, Phi, and LLaMA-3.2, are used in extensive experiments to compare LLM-only control, neural-only control, and the suggested LLM+DL framework. In comparison to LLM-only baselines, the results show that the neuro-symbolic integration consistently increases both success rate and efficiency, achieving average step reductions exceeding 70% and speedups of up to 8.83x while remaining robust to language model quality. The suggested framework enhances interpretability, stability, and generalization without any need of reinforcement learning or costly rollouts by controlling the LLM to symbolic outputs and allocating uninterpreted execution to a neural controller trained on artificial geometric data. These outputs show empirically that neuro-symbolic decomposition offers a scalable and principled way to integrate language understanding with ongoing control, this approach promotes the creation of dependable and effective language-guided embodied systems.
- Abstract(参考訳): 大規模言語モデル (LLM) は近年, エンボディシステムにおける言語条件制御の有効なツールとなっているが, 不安定性, 収束の遅さ, および幻覚的動作は, 継続的な制御への直接的な適用を制限し続けている。
本研究では,低レベル動作実行と高レベル意味推論を明確に区別するモジュール型ニューロシンボリック制御フレームワークを提案する。
軽量のニューラルデルタコントローラは連続空間において有界で漸進的な動作を行うが、ローカルにデプロイされたLLMは象徴的なタスクを解釈する。
提案手法を,言語によって指定されたオブジェクト間の空間的関係を考慮した平面操作設定で評価する。
Mistral、Phi、LLaMA-3.2といった多くのタスクやローカル言語モデルは、LLMのみの制御、ニューラルのみの制御、提案されたLLM+DLフレームワークの比較に広く用いられている。
LLMのみのベースラインと比較して、ニューロシンボリック統合は成功率と効率の両方を一貫して増加させ、平均ステップ削減が70%を超え、最大8.83倍のスピードアップを達成する一方で、言語モデルの品質に頑健なままであることを示した。
提案フレームワークは、LLMをシンボル出力に制御し、人工幾何学データに基づいて訓練されたニューラルネットワークに非解釈実行を割り当てることにより、強化学習やコストのかかるロールアウトを必要とせずに、解釈可能性、安定性、一般化を向上させる。
これらの出力は、ニューロシンボリックな分解が言語理解を継続的な制御と統合するためのスケーラブルで原則化された方法を提供することを実証的に示す。
関連論文リスト
- Language-Grounded Decoupled Action Representation for Robotic Manipulation [78.42228162226839]
認識と制御を結びつけるために,Language-Grounded Decoupled Action Representation (LaDA) フレームワークを提案する。
LaDAは3つの解釈可能なアクションプリミティブ(翻訳、回転、グリップ制御)の微細な中間層を導入し、低レベルのアクションに対して明示的な意味構造を提供する。
さらに、セマンティックガイダンスによるソフトラベルのコントラスト学習の目的を用いて、類似のアクションプリミティブをタスク間で整列させ、一般化と動きの整合性を高める。
論文 参考訳(メタデータ) (2026-03-13T13:08:26Z) - MaDiS: Taming Masked Diffusion Language Models for Sign Language Generation [78.75809158246723]
本稿では,SLGのためのマスク付き拡散型言語モデルであるMaDiSについて述べる。
また,トークン・ラテント・ヘアリング・3次元空間の目的から共同で学習する3段階のクロスモーダル事前学習手法を導入する。
MaDiSはDTWエラーと新たに導入された2つのメトリクスであるSiBLEUとSiCLIPを含む複数のメトリクスで優れたパフォーマンスを実現し、推論レイテンシを30%近く削減している。
論文 参考訳(メタデータ) (2026-01-27T13:06:47Z) - UniMo: Unified Motion Generation and Understanding with Chain of Thought [18.404131357169657]
UniMoは、動き言語情報と解釈可能な思考の連鎖(CoT)を大きな言語モデルに統合する新しいフレームワークである。
動作生成と理解の両方において、UniMoは既存の統合モデルとタスク固有モデルを大幅に上回っており、最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2026-01-17T17:56:49Z) - Zero-shot Model-based Reinforcement Learning using Large Language Models [12.930241182192988]
本稿では,マルコフ決定過程の動的状態を予測するために,事前学習した大規模言語モデルをどのように活用することができるかを検討する。
本稿では,モデルに基づく政策評価とデータ強化型オフ政治強化学習という2つの強化学習環境における概念実証の応用について述べる。
論文 参考訳(メタデータ) (2024-10-15T15:46:53Z) - Large Language Models can be Strong Self-Detoxifiers [82.6594169242814]
SASA(Self-disciplined Autoregressive Smpling)は、大規模言語モデル(LLM)の毒性低減のための軽量制御復号アルゴリズムである。
SASAは、自己回帰サンプリング戦略を調整することにより、電流出力のマージンを追跡し、有害な部分空間から世代を分離する。
Llama-3.1-Instruct (8B), Llama-2 (7B), GPT2-L model with the RealToxicityPrompts, BOLD, and AttaQ benchmarks。
論文 参考訳(メタデータ) (2024-10-04T17:45:15Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Aligning Large Language Models with Representation Editing: A Control Perspective [38.71496554018039]
人間の目的に合わせて微調整された大規模言語モデル(LLM)は、現実世界のアプリケーションには不可欠である。
プロンプトやガイドデコードといったテスト時のアライメント技術は、基礎となるモデルを変更しない。
表現編集によるLLMの整合性を提案する。
論文 参考訳(メタデータ) (2024-06-10T01:21:31Z) - AD-H: Autonomous Driving with Hierarchical Agents [64.49185157446297]
我々は,ハイレベル命令と低レベル制御信号を中間言語駆動の命令に接続することを提案する。
我々は、AD-Hという階層型マルチエージェント駆動システムを用いて、このアイデアを実装した。
論文 参考訳(メタデータ) (2024-06-05T17:25:46Z) - Quantized Embedding Vectors for Controllable Diffusion Language Models [1.3287140837287783]
Quantized Embedding Controllable Diffusion Language Modelは、言語モデルの制御性、移植性、推論速度を改善する。
QE-CDLMは、最近成功した制御可能なDLMの上に構築され、量子化によってタスク固有の埋め込み空間をモデル化する。
論文 参考訳(メタデータ) (2024-02-15T17:02:48Z) - Neuro-Symbolic Causal Language Planning with Commonsense Prompting [67.06667162430118]
言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
論文 参考訳(メタデータ) (2022-06-06T22:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。