論文の概要: NL2GenSym: Natural Language to Generative Symbolic Rules for SOAR Cognitive Architecture via Large Language Models
- arxiv url: http://arxiv.org/abs/2510.09355v1
- Date: Fri, 10 Oct 2025 13:08:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.006141
- Title: NL2GenSym: Natural Language to Generative Symbolic Rules for SOAR Cognitive Architecture via Large Language Models
- Title(参考訳): NL2GenSym: 大規模言語モデルによるSOAR認知アーキテクチャのための生成記号規則への自然言語
- Authors: Fang Yuan, Junjie Zeng, Yue Hu, Zhengqiu Zhu, Quanjun Yin, Yuxiang Xie,
- Abstract要約: NL2GenSymは、自然言語から生成的シンボリックルールを生成するために、大規模言語モデルとSOARを統合する新しいフレームワークである。
我々のフレームワークは、自然言語からルールを生成するのに86%以上の成功率を達成する。
- 参考スコア(独自算出の注目度): 12.664457894186818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SOAR, a classic symbol-based cognitive architecture, has been fostering the development of general, human-like intelligent agents. Nevertheless, its practical adoption is hindered by the laborious manual rule coding. Emerging Large Language Models (LLMs) present the immense potential for efficient rules generation. However, there is a critical gap that current research predominantly focuses on conceptual frameworks and lacks robust experimental validation. To bridge this gap, we propose \textit{N}atural \textit{L}anguage to \textit{Gen}erative \textit{Sym}bolic Rules (NL2GenSym), a novel framework that integrates LLMs with SOAR to autonomously produce generative symbolic rules from natural language. Specifically, our framework introduces a novel Execution-Grounded Generator-Critic mechanism. The LLM-based Generator, guided by a Retrieval-Augmented Generation-accessed self-evolving domain knowledge base, proposes rules from natural language. Subsequently, these rules are immediately executed within the SOAR environment to rigorously validate their correctness. Based on this execution-grounded feedback, a reflective LLM-based Critic drives the iterative refinement of these rules. Experiments on our specialized Water Jug Problem (WJP) dataset, utilizing both Gemini and Qwen series models, validate the efficacy of our framework. It achieves a success rate over 86\% in generating rules from natural language. Crucially, the framework also generates novel heuristic rules, reducing average decision cycles for solving the WJP to 1.98 times the optimal solution and 1/1000 of baseline methods. Additionally, our initial experiments show that NL2GenSym enables smaller-parameter models to achieve better performance than larger counterparts.
- Abstract(参考訳): 古典的なシンボルベースの認知アーキテクチャであるSOARは、一般的な人間のような知的なエージェントの開発を促進する。
それでも、その実践的な採用は、厳格なマニュアルルールコーディングによって妨げられている。
LLM(Emerging Large Language Models)は、効率的なルール生成の潜在能力を示す。
しかしながら、現在の研究が主に概念的なフレームワークに焦点を当てており、堅牢な実験的な検証が欠如していることには、重大なギャップがある。
このギャップを埋めるために、LLMとSOARを統合する新しいフレームワークである \textit{N}atural \textit{L}anguage to \textit{Gen}erative \textit{Sym}bolic Rules (NL2GenSym)を提案する。
特に,本フレームワークでは,新しい実行型ジェネレータ・クリティカル機構を導入している。
LLMベースのジェネレータは、Retrieval-Augmented Generation- Accessed self-evolving domain knowledge baseによってガイドされ、自然言語からのルールを提案する。
その後、これらのルールはSOAR環境内で即座に実行され、その正確さを厳格に検証します。
この実行地上フィードバックに基づいて、リフレクティブLLMベースのCriticは、これらのルールを反復的に洗練する。
Gemini と Qwen の両シリーズモデルを用いて, 専門的なウォータージャグ問題 (WJP) データセットの実験を行い, 本フレームワークの有効性を検証した。
自然言語から規則を生成する場合、86\%以上の成功率を達成する。
重要なことに、このフレームワークは新たなヒューリスティックなルールも生成し、WJPを最適解の1.98倍、ベースライン法の1/1000倍まで解くための平均的な決定サイクルを減らした。
さらに、NL2GenSymは、より小さなパラメータモデルでより大きなモデルよりも優れた性能を実現することができることを示した。
関連論文リスト
- Requirements Development and Formalization for Reliable Code Generation: A Multi-Agent Vision [45.59678433715798]
我々は、textscrequirements textscdevelopmentとtextscformalization(textscDeFo)をベースとした、信頼性の高いコード生成のための最初のマルチエージェントフレームワークを構想する。
textscReDeFoの中核は、潜在的に曖昧な自然言語要求と正確な実行可能なコードの間のギャップを埋めるために、正式な仕様を使用することである。
論文 参考訳(メタデータ) (2025-08-26T04:45:04Z) - Arce: Augmented Roberta with Contextualized Elucidations for Ner in Automated Rule Checking [5.58730646214246]
ARCE(Augmented RoBERTa with contextualized elucidations)は、この生成プロセスを体系的に探索し最適化する新しいアプローチである。
ARCEはベンチマークAECデータセットに新たな最先端技術を確立し、マクロF1スコアは77.20%に達した。
シンプルで説明に基づく知識は、このタスクの複雑なロールベースの論理よりも驚くほど効果的であることが証明されます。
論文 参考訳(メタデータ) (2025-08-10T10:49:48Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation [57.07295906718989]
制約付き復号法は,事前訓練された大言語(Ms と PLMs)が生成するテキストの意味やスタイルを,推論時に様々なタスクに対して制御することを目的としている。
これらの方法は、しばしば、欲求的かつ明示的にターゲットを選択することによって、もっともらしい連続を導く。
認知二重プロセス理論に着想を得て,新しい復号化フレームワークDECDERを提案する。
論文 参考訳(メタデータ) (2024-03-04T11:49:08Z) - Improving Natural Language Capability of Code Large Language Model [13.639938216171185]
本稿では,AttentionExtractorとAttentionCoderという2つのモジュールからなる新しいフレームワークを提案する。
AttentionExtractorはユーザの自然言語要求からキーフレーズを抽出する役割を持ち、AttentionCoderは抽出したフレーズを利用してターゲットコードを生成する。
フレームワークの有効性を検証するため、5つの自然言語をカバーするMultiNL-Hという新しいコード生成ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-01-25T15:33:20Z) - Instructed Language Models with Retrievers Are Powerful Entity Linkers [87.16283281290053]
Instructed Generative Entity Linker (INSGENEL)は、カジュアル言語モデルが知識ベース上でエンティティリンクを実行することを可能にする最初のアプローチである。
INSGENEL は、+6.8 F1 点が平均的に上昇する以前の生成的代替よりも優れていた。
論文 参考訳(メタデータ) (2023-11-06T16:38:51Z) - Is Reinforcement Learning (Not) for Natural Language Processing?:
Benchmarks, Baselines, and Building Blocks for Natural Language Policy
Optimization [73.74371798168642]
我々は、強化学習による言語生成を最適化するためのオープンソースのモジュールライブラリRL4LMを紹介する。
次に、ターゲット文字列ではなく、報酬関数によって教師される6つの言語生成タスクのセットであるGRUEベンチマークを示す。
最後に,言語生成における動作空間を効果的に削減するNLPOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-03T21:38:29Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。