論文の概要: LLM-Augmented Symbolic NLU System for More Reliable Continuous Causal Statement Interpretation
- arxiv url: http://arxiv.org/abs/2510.19988v1
- Date: Wed, 22 Oct 2025 19:38:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.732959
- Title: LLM-Augmented Symbolic NLU System for More Reliable Continuous Causal Statement Interpretation
- Title(参考訳): LLM-Augmented Symbolic NLU System for Reliable Continuous Causal Statement Interpretation
- Authors: Xin Lian, Kenneth D. Forbus,
- Abstract要約: 本稿では,LLMの広包言語処理と,構造化された関係表現を生成するシンボリックなNLU機能を統合するハイブリッドアプローチについて検討する。
我々のハイブリッド方式は,シンボルのみのパイプラインよりもはるかに優れていることが示唆された。
- 参考スコア(独自算出の注目度): 5.579029325265822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the broad applicability of large language models (LLMs), their reliance on probabilistic inference makes them vulnerable to errors such as hallucination in generated facts and inconsistent output structure in natural language understanding (NLU) tasks. By contrast, symbolic NLU systems provide interpretable understanding grounded in curated lexicons, semantic resources, and syntactic & semantic interpretation rules. They produce relational representations that can be used for accurate reasoning and planning, as well as incremental debuggable learning. However, symbolic NLU systems tend to be more limited in coverage than LLMs and require scarce knowledge representation and linguistics skills to extend and maintain. This paper explores a hybrid approach that integrates the broad-coverage language processing of LLMs with the symbolic NLU capabilities of producing structured relational representations to hopefully get the best of both approaches. We use LLMs for rephrasing and text simplification, to provide broad coverage, and as a source of information to fill in knowledge gaps more automatically. We use symbolic NLU to produce representations that can be used for reasoning and for incremental learning. We evaluate this approach on the task of extracting and interpreting quantities and causal laws from commonsense science texts, along with symbolic- and LLM-only pipelines. Our results suggest that our hybrid method works significantly better than the symbolic-only pipeline.
- Abstract(参考訳): 大規模言語モデル(LLM)の適用性は広いが、確率的推論に依存しているため、生成した事実の幻覚や自然言語理解(NLU)タスクの不整合出力構造などのエラーに弱い。
対照的に、シンボリックなNLUシステムは、キュレートされた語彙、セマンティックリソース、構文とセマンティックの解釈ルールに基礎を置いている解釈可能な理解を提供する。
正確な推論と計画、インクリメンタルデバッグ可能な学習に使用できるリレーショナル表現を生成する。
しかし、シンボリックなNLUシステムはLLMよりもカバー範囲が限られており、拡張と維持には知識表現と言語学のスキルが不足している。
本稿では,LLMの広包言語処理と構造的リレーショナル表現を生成するシンボリックなNLU機能を統合するハイブリッドアプローチについて検討する。
我々は,LLMを言い換えやテキストの単純化に利用し,広い範囲を網羅し,知識ギャップを埋める情報源として,より自動的に活用する。
我々は記号的NLUを用いて推論や漸進学習に使用できる表現を生成する。
本研究では,コモンセンス・サイエンス・テキストから量と因果関係の法則を抽出・解釈する作業と,シンボリック・パイプラインとLLMのみのパイプラインについて評価する。
我々のハイブリッド方式は,シンボルのみのパイプラインよりもはるかに優れていることが示唆された。
関連論文リスト
- Enhancing Large Language Models through Neuro-Symbolic Integration and Ontological Reasoning [0.0]
大規模言語モデル(LLM)は自然言語処理において顕著な能力を示すが、幻覚として知られる不正確さと論理的不整合に悩まされている。
本稿では,LLM出力の一貫性と信頼性を高めるために,記号的存在論的推論と機械学習を融合したニューロシンボリックアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-10T10:39:24Z) - Semantic Mastery: Enhancing LLMs with Advanced Natural Language Understanding [0.0]
本稿では,より高度なNLU技術を用いて,大規模言語モデル(LLM)を進化させる最先端の方法論について論じる。
我々は、構造化知識グラフ、検索強化生成(RAG)、および人間レベルの理解とモデルにマッチする微調整戦略の利用を分析する。
論文 参考訳(メタデータ) (2025-04-01T04:12:04Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - Enriching Ontologies with Disjointness Axioms using Large Language Models [5.355177558868206]
大型モデル(LLM)は、クラス不整合公理を識別し、主張することで一貫性を提供する。
本研究の目的は,LLMに埋め込まれた暗黙の知識を活用して,存在論的不一致を分類することである。
以上の結果から, LLMは効果的なプロンプト戦略によって導かれることにより, 不整合性関係を確実に識別できることが示唆された。
論文 参考訳(メタデータ) (2024-10-04T09:00:06Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - FaithLM: Towards Faithful Explanations for Large Language Models [67.29893340289779]
大きな言語モデル(LLM)は、内部知識と推論能力を活用することで複雑なタスクに対処するのに熟練している。
これらのモデルのブラックボックスの性質は、意思決定プロセスを説明するタスクを複雑にしている。
自然言語 (NL) による LLM の決定を説明するために FaithLM を紹介した。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - Towards ASR Robust Spoken Language Understanding Through In-Context
Learning With Word Confusion Networks [68.79880423713597]
本稿では,トップ仮説のみに頼るのではなく,ASRシステムの格子出力を利用する手法を提案する。
音声質問応答と意図分類を網羅した文脈内学習実験により,LLMの音声書き起こしに対する弾力性について明らかにした。
論文 参考訳(メタデータ) (2024-01-05T17:58:10Z) - Improving Factual Consistency of News Summarization by Contrastive Preference Optimization [65.11227166319546]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
本稿では,LLMの適合性を解消し,忠実で偽のコンテンツを生成するコントラスト優先最適化(CPO)を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z) - IERL: Interpretable Ensemble Representation Learning -- Combining
CrowdSourced Knowledge and Distributed Semantic Representations [11.008412414253662]
大言語モデル(LLM)は、単語の意味を分散意味論の形でエンコードする。
近年の研究では、LLMは意図しない、一貫性のない、あるいは間違ったテキストを出力として生成する傾向があることが示されている。
本稿では,LLMとクラウドソースの知識表現を体系的に組み合わせた新しいアンサンブル学習手法であるInterpretable Ensemble Representation Learning (IERL)を提案する。
論文 参考訳(メタデータ) (2023-06-24T05:02:34Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。