論文の概要: Neuro-Symbolic Synergy for Interactive World Modeling
- arxiv url: http://arxiv.org/abs/2602.10480v1
- Date: Wed, 11 Feb 2026 03:36:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.429695
- Title: Neuro-Symbolic Synergy for Interactive World Modeling
- Title(参考訳): 対話型世界モデリングのためのニューロシンボリックシナジー
- Authors: Hongyu Zhao, Siyu Zhou, Haolin Yang, Zengyi Qin, Tianyi Zhou,
- Abstract要約: 本稿では,大規模言語モデルの確率論的セマンティクスを,実行可能な記号規則と統合するフレームワークNeuro-Symbolic Synergyを提案する。
NeSySは2つのモデル間のトレーニングを相互に交互に行う。
- 参考スコア(独自算出の注目度): 20.07686289460334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) exhibit strong general-purpose reasoning capabilities, yet they frequently hallucinate when used as world models (WMs), where strict compliance with deterministic transition rules--particularly in corner cases--is essential. In contrast, Symbolic WMs provide logical consistency but lack semantic expressivity. To bridge this gap, we propose Neuro-Symbolic Synergy (NeSyS), a framework that integrates the probabilistic semantic priors of LLMs with executable symbolic rules to achieve both expressivity and robustness. NeSyS alternates training between the two models using trajectories inadequately explained by the other. Unlike rule-based prompting, the symbolic WM directly constrains the LLM by modifying its output probability distribution. The neural WM is fine-tuned only on trajectories not covered by symbolic rules, reducing training data by 50% without loss of accuracy. Extensive experiments on three distinct interactive environments, i.e., ScienceWorld, Webshop, and Plancraft, demonstrate NeSyS's consistent advantages over baselines in both WM prediction accuracy and data efficiency.
- Abstract(参考訳): 大規模言語モデル(LLM)は、強力な汎用推論能力を示すが、世界モデル(WM)として使われるとしばしば幻覚する。
対照的に、シンボリックWMは論理的一貫性を提供するが、意味表現性は欠如している。
このギャップを埋めるために我々は,LLMの確率論的セマンティクスを,表現性とロバスト性の両方を達成するために実行可能なシンボル規則と統合するフレームワークであるNeuro-Symbolic Synergy(NeSyS)を提案する。
NeSySは2つのモデル間のトレーニングを相互に交互に行う。
ルールベースのプロンプトとは異なり、シンボル WM は出力確率分布を変更して LLM を直接制約する。
ニューラルWMは、シンボリックルールでカバーされていない軌道のみを微調整し、精度を損なうことなくトレーニングデータを50%削減する。
ScienceWorld、Webshop、Plancraftの3つの異なるインタラクティブ環境に関する大規模な実験は、WM予測精度とデータ効率の両方において、NeSySのベースラインに対する一貫した優位性を実証している。
関連論文リスト
- ICON: Invariant Counterfactual Optimization with Neuro-Symbolic Priors for Text-Based Person Search [6.247167721048087]
テキストベースの人物検索は、視覚的知覚と言語理解を橋渡しする現実世界の監視においてユニークな価値を持っている。
事前学習モデルを利用した現在のパラダイムは、しばしば複雑なオープンワールドシナリオに効果的に転送できない。
本稿では,因果関係とトポロジ的前提を統合したフレームワークであるICONを提案する。
論文 参考訳(メタデータ) (2026-01-22T13:09:22Z) - Stable Language Guidance for Vision-Language-Action Models [62.80963701282789]
残留セマンティックステアリング(Residual Semantic Steering)は、セマンティック実行から身体的余裕を逸脱する確率的フレームワークである。
RSSは最先端の堅牢性を実現し、敵対的な言語摂動の下でも性能を維持する。
論文 参考訳(メタデータ) (2026-01-07T16:16:10Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - Symbolic Rule Extraction from Attention-Guided Sparse Representations in Vision Transformers [1.3812010983144802]
最近のニューロシンボリックアプローチは、解釈可能性を高めるためにCNNベースのモデルからシンボリック・ルールセットを抽出することに成功している。
本稿では、スパースオートエンコーダ(SAE)にインスパイアされたスパース概念層を導入し、視覚変換器(ViT)からシンボルルールを抽出するフレームワークを提案する。
本手法は,記号的推論が可能でありながら,標準のViTよりも5.14%の精度で分類できる。
論文 参考訳(メタデータ) (2025-05-10T19:45:15Z) - PhysLLM: Harnessing Large Language Models for Cross-Modal Remote Physiological Sensing [49.243031514520794]
LLM(Large Language Models)は、テキスト中心の設計のため、長距離信号の取得に優れる。
PhysLLMは最先端の精度とロバスト性を実現し、照明のバリエーションや動きのシナリオにまたがる優れた一般化を示す。
論文 参考訳(メタデータ) (2025-05-06T15:18:38Z) - DMWM: Dual-Mind World Model with Long-Term Imagination [43.39205414684229]
本稿では、論理的推論を統合し、論理的一貫性で想像力を発揮できる新しいデュアルミンド世界モデル(DMWM)を提案する。
提案するフレームワークは,DMControlスイートからの長期計画を必要とするベンチマークタスクに基づいて評価される。
論文 参考訳(メタデータ) (2025-02-11T14:40:57Z) - Neurosymbolic AI for Travel Demand Prediction: Integrating Decision Tree Rules into Neural Networks [21.445133878049333]
本研究では、決定木(DT)に基づくシンボルルールとニューラルネットワーク(NN)を統合し、旅行需要を予測するニューロシンボリック人工知能(Neurosymbolic AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-02T05:10:31Z) - Neuro-Symbolic Entity Alignment via Variational Inference [27.4635535516158]
NeuSymEAは統合されたニューロシンボリック推論フレームワークである。
強靭なエンティティアライメントのために、クロスKG構造パターンを利用する。
NeuSymEAは、強いベースラインと比較して、$textDBP15K_textZH-EN$で7.6%改善されている。
論文 参考訳(メタデータ) (2024-10-05T13:29:22Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - LogicMP: A Neuro-symbolic Approach for Encoding First-order Logic Constraints [46.60806942245395]
本稿では,MLN上で平均場変動推定を行う新しいニューラルネットワーク層LogicMPを提案する。
モジュール性と効率を保ちながら、FOLCをエンコードするために、市販のニューラルネットワークにプラグインすることができる。
グラフ、画像、テキストの3種類のタスクを経験した結果、LogicMPは、パフォーマンスと効率の両面で、先進的な競合より優れています。
論文 参考訳(メタデータ) (2023-09-27T07:52:30Z) - Semantic Probabilistic Layers for Neuro-Symbolic Learning [83.25785999205932]
我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
論文 参考訳(メタデータ) (2022-06-01T12:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。