論文の概要: Advancing Symbolic Integration in Large Language Models: Beyond Conventional Neurosymbolic AI
- arxiv url: http://arxiv.org/abs/2510.21425v1
- Date: Fri, 24 Oct 2025 13:05:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.475441
- Title: Advancing Symbolic Integration in Large Language Models: Beyond Conventional Neurosymbolic AI
- Title(参考訳): 大規模言語モデルにおけるシンボリック統合の促進:従来のニューロシンボリックAIを超えて
- Authors: Maneeha Rani, Bhupesh Kumar Mishra, Dhavalkumar Thakker,
- Abstract要約: 本稿ではまずNeSyのAI手法の確立とLLMにおけるシンボリック統合の新たな分類法を提案する。
次に、LLMとシンボリックテクニックをマージするためのロードマップを提案する。
この論文は、将来の研究のロードマップを提案するために、現在のベンチマーク、最先端の進歩、分野内の重要なギャップを徹底的に特定する。
- 参考スコア(独自算出の注目度): 0.0509780930114934
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: LLMs have demonstrated highly effective learning, human-like response generation,and decision-making capabilities in high-risk sectors. However, these models remain black boxes because they struggle to ensure transparency in responses. The literature has explored numerous approaches to address transparency challenges in LLMs, including Neurosymbolic AI (NeSy AI). NeSy AI approaches were primarily developed for conventional neural networks and are not well-suited to the unique features of LLMs. Consequently, there is a limited systematic understanding of how symbolic AI can be effectively integrated into LLMs. This paper aims to address this gap by first reviewing established NeSy AI methods and then proposing a novel taxonomy of symbolic integration in LLMs, along with a roadmap to merge symbolic techniques with LLMs. The roadmap introduces a new categorisation framework across four dimensions by organising existing literature within these categories. These include symbolic integration across various stages of LLM, coupling mechanisms, architectural paradigms, as well as algorithmic and application-level perspectives. The paper thoroughly identifies current benchmarks, cutting-edge advancements, and critical gaps within the field to propose a roadmap for future research. By highlighting the latest developments and notable gaps in the literature, it offers practical insights for implementing frameworks for symbolic integration into LLMs to enhance transparency.
- Abstract(参考訳): LLMは、リスクの高い分野において、非常に効果的な学習、人間のような応答生成、意思決定能力を示してきた。
しかし、これらのモデルは応答の透明性を確保するのに苦労するため、ブラックボックスのままである。
この文献は、Neurosymbolic AI(NeSy AI)など、LLMの透明性問題に対処する多くのアプローチを探求している。
NeSy AIアプローチは主に従来のニューラルネットワーク用に開発されたもので、LLMのユニークな特徴には適していない。
その結果、LLMにシンボリックAIを効果的に組み込む方法についての体系的な理解は限られている。
本稿では,確立したNeSyのAI手法をまず検討し,LLMにおけるシンボリック統合の新たな分類法を提案するとともに,LLMとシンボリックテクニックをマージするロードマップを提案する。
ロードマップでは、これらのカテゴリ内に既存の文献を整理することで、4次元にわたる新たな分類フレームワークを導入している。
これらの中には、LLMの様々な段階にわたる象徴的な統合、結合メカニズム、アーキテクチャパラダイム、およびアルゴリズム的およびアプリケーションレベルの観点が含まれる。
この論文は、将来の研究のロードマップを提案するために、現在のベンチマーク、最先端の進歩、分野内の重要なギャップを徹底的に特定する。
文学における最新の発展と顕著なギャップを強調し、透明性を高めるためにLLMにシンボリックな統合のためのフレームワークを実装するための実践的な洞察を提供する。
関連論文リスト
- Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - When Text Embedding Meets Large Language Model: A Comprehensive Survey [37.656006634893046]
この調査は、大きな言語モデル(LLM)とテキスト埋め込みの相互作用に焦点を当てている。
様々な研究および応用分野からの貢献の、新しく体系的な概要を提供する。
この分析に基づいて,テキスト埋め込みの進化に向けた今後の方向性を概説する。
論文 参考訳(メタデータ) (2024-12-12T10:50:26Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models [0.0]
本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-15T02:52:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。