論文の概要: A Novel Architecture for Symbolic Reasoning with Decision Trees and LLM Agents
- arxiv url: http://arxiv.org/abs/2508.05311v1
- Date: Thu, 07 Aug 2025 12:11:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.847533
- Title: A Novel Architecture for Symbolic Reasoning with Decision Trees and LLM Agents
- Title(参考訳): 決定木とLLMエージェントを用いたシンボリック推論のための新しいアーキテクチャ
- Authors: Andrew Kiruluta,
- Abstract要約: 本稿では,決定木に基づく記号推論と大規模言語モデルの生成機能を統合するハイブリッドアーキテクチャを提案する。
ツリーベースのモジュールは解釈可能なルール推論と因果論理を可能にし、一方LLMエージェントは帰納的推論、一般化、対話的計画を扱う。
システムは推論ベンチマークで高いパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a hybrid architecture that integrates decision tree-based symbolic reasoning with the generative capabilities of large language models (LLMs) within a coordinated multi-agent framework. Unlike prior approaches that loosely couple symbolic and neural modules, our design embeds decision trees and random forests as callable oracles within a unified reasoning system. Tree-based modules enable interpretable rule inference and causal logic, while LLM agents handle abductive reasoning, generalization, and interactive planning. A central orchestrator maintains belief state consistency and mediates communication across agents and external tools, enabling reasoning over both structured and unstructured inputs. The system achieves strong performance on reasoning benchmarks. On \textit{ProofWriter}, it improves entailment consistency by +7.2\% through logic-grounded tree validation. On GSM8k, it achieves +5.3\% accuracy gains in multistep mathematical problems via symbolic augmentation. On \textit{ARC}, it boosts abstraction accuracy by +6.0\% through integration of symbolic oracles. Applications in clinical decision support and scientific discovery show how the system encodes domain rules symbolically while leveraging LLMs for contextual inference and hypothesis generation. This architecture offers a robust, interpretable, and extensible solution for general-purpose neuro-symbolic reasoning.
- Abstract(参考訳): 本稿では,決定木に基づくシンボリック推論と大規模言語モデル(LLM)の生成能力を統合するハイブリッドアーキテクチャを提案する。
シンボルとニューラルモジュールを疎結合にする従来のアプローチとは異なり、我々の設計では決定木とランダム森林を統一された推論システムに呼び出し可能なオラクルとして組み込んでいます。
ツリーベースのモジュールは解釈可能なルール推論と因果論理を可能にし、一方LLMエージェントは帰納的推論、一般化、対話的計画を扱う。
中央オーケストレータは、信念状態の整合性を維持し、エージェントと外部ツール間の通信を仲介し、構造化された入力と非構造化された入力の両方に対する推論を可能にする。
このシステムは推論ベンチマークにおいて高い性能を達成する。
textit{ProofWriter} では、ロジック基底木バリデーションにより、+7.2\%のエンテーメント一貫性が向上する。
GSM8kでは、記号拡張による多段階数学問題において、+5.3\%の精度向上を実現している。
textit{ARC} では、シンボリックオラクルの統合により、抽象化の精度を +6.0\% 向上させる。
臨床決定支援と科学的発見の応用は、LLMを文脈推論と仮説生成に活用しながら、システムがドメインルールを象徴的にエンコードする方法を示している。
このアーキテクチャは、汎用的なニューロシンボリック推論のための堅牢で解釈可能な拡張可能なソリューションを提供する。
関連論文リスト
- A Comparative Study of Neurosymbolic AI Approaches to Interpretable Logical Reasoning [0.0]
ドメインに依存しないタスクを推論する能力として定義された一般的な論理的推論は、大型言語モデル(LLM)の課題であり続けている。
近年、ニューラルネットワークに論理を組み込もうとするニューロシンボリックAIへの関心が高まっている。
まず、論理的推論を改善するための2つの主要なニューロシンボリックアプローチを同定する。
論文 参考訳(メタデータ) (2025-08-05T12:14:32Z) - From Language to Logic: A Bi-Level Framework for Structured Reasoning [6.075080928704587]
自然言語入力に対する構造化推論は、人工知能における中核的な課題である。
本稿では,ハイレベルなタスク抽象化と低レベルなロジック生成という2段階のプロセスを通じて,言語を論理にマッピングする新しいフレームワークを提案する。
提案手法は既存のベースラインの精度を著しく上回り,精度は最大40%向上した。
論文 参考訳(メタデータ) (2025-07-11T11:24:09Z) - Do LLMs Dream of Discrete Algorithms? [0.7646713951724011]
大規模言語モデル(LLM)は、人工知能の風景を急速に変化させてきた。
確率的推論への依存は、厳密な論理的推論を必要とする領域における有効性を制限する。
本稿では,論理ベースの推論モジュールでLLMを増強するニューロシンボリックアプローチを提案する。
論文 参考訳(メタデータ) (2025-06-29T22:03:01Z) - Reasoning-as-Logic-Units: Scaling Test-Time Reasoning in Large Language Models Through Logic Unit Alignment [21.12989936864145]
CoT(Chain-of-Thought)のプロンプトによって,大規模言語モデル(LLM)の推論能力の向上が期待できる。
本稿では、生成したプログラムと対応するNL記述との間に論理単位を整列させることにより、より信頼性の高い推論経路を構築するReasoning-as-Logic-Units (RaLU)を提案する。
論文 参考訳(メタデータ) (2025-02-05T08:23:18Z) - Compositional Generalization Across Distributional Shifts with Sparse Tree Operations [77.5742801509364]
我々は、微分可能木機械と呼ばれる統合されたニューロシンボリックアーキテクチャを導入する。
シンボル構造の疎ベクトル表現を用いることで,モデルの効率を大幅に向上する。
より一般的なseq2seq問題に制限されたtree2tree問題以外の適用を可能にする。
論文 参考訳(メタデータ) (2024-12-18T17:20:19Z) - Proof of Thought : Neurosymbolic Program Synthesis allows Robust and Interpretable Reasoning [1.3003982724617653]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、一貫性のない推論に苦戦している。
本研究では,LLM出力の信頼性と透明性を高めるフレームワークであるProof of Thoughtを紹介する。
主な貢献は、論理的整合性を高めるためのソート管理を備えた堅牢な型システム、事実的知識と推論的知識を明確に区別するための規則の明示である。
論文 参考訳(メタデータ) (2024-09-25T18:35:45Z) - An Encoding of Abstract Dialectical Frameworks into Higher-Order Logic [57.24311218570012]
このアプローチは抽象弁証法フレームワークのコンピュータ支援分析を可能にする。
応用例としては、メタ理論的性質の形式的解析と検証がある。
論文 参考訳(メタデータ) (2023-12-08T09:32:26Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Neuro-Symbolic Causal Reasoning Meets Signaling Game for Emergent
Semantic Communications [71.63189900803623]
創発的SCシステムフレームワークを提案し,創発的言語設計のためのシグナリングゲームと因果推論のためのニューロシンボリック(NeSy)人工知能(AI)アプローチで構成されている。
ESCシステムは、意味情報、信頼性、歪み、類似性の新たな指標を強化するように設計されている。
論文 参考訳(メタデータ) (2022-10-21T15:33:37Z) - Question Answering over Knowledge Bases by Leveraging Semantic Parsing
and Neuro-Symbolic Reasoning [73.00049753292316]
本稿では,意味解析と推論に基づくニューロシンボリック質問回答システムを提案する。
NSQAはQALD-9とLC-QuAD 1.0で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-12-03T05:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。