論文の概要: Intermediate Languages Matter: Formal Languages and LLMs affect Neurosymbolic Reasoning
- arxiv url: http://arxiv.org/abs/2509.04083v1
- Date: Thu, 04 Sep 2025 10:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.131377
- Title: Intermediate Languages Matter: Formal Languages and LLMs affect Neurosymbolic Reasoning
- Title(参考訳): 中間言語が重要:形式言語とLLMがニューロシンボリック推論に影響を及ぼす
- Authors: Alexander Beiser, David Penz, Nysret Musliu,
- Abstract要約: 大きな言語モデル(LLM)は、幅広いタスクにおいて驚くべき結果をもたらすが、正式な推論能力はまだ遅れている。
有望なアプローチは、ニューロシンボリックLSM推論である。
本稿では,これまで見過ごされてきた要素が形式言語の選択であることを示す。
- 参考スコア(独自算出の注目度): 46.02329567377897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) achieve astonishing results on a wide range of tasks. However, their formal reasoning ability still lags behind. A promising approach is Neurosymbolic LLM reasoning. It works by using LLMs as translators from natural to formal languages and symbolic solvers for deriving correct results. Still, the contributing factors to the success of Neurosymbolic LLM reasoning remain unclear. This paper demonstrates that one previously overlooked factor is the choice of the formal language. We introduce the intermediate language challenge: selecting a suitable formal language for neurosymbolic reasoning. By comparing four formal languages across three datasets and seven LLMs, we show that the choice of formal language affects both syntactic and semantic reasoning capabilities. We also discuss the varying effects across different LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広いタスクにおいて驚くべき結果をもたらす。
しかし、彼らの正式な推論能力はいまだに遅れている。
有望なアプローチは、ニューロシンボリックLSM推論である。
LLMを自然言語から形式言語への翻訳や、正しい結果の導出のためのシンボリック・ソルバとして利用する。
それでも、ニューロシンボリックLSM推論の成功に寄与する要因ははっきりしない。
本稿では,これまで見過ごされてきた要素が形式言語の選択であることを示す。
本稿では、ニューロシンボリック推論に適した形式言語を選択するという中間言語課題を紹介する。
3つのデータセットと7つのLLMの4つの形式言語を比較することにより、形式言語の選択が構文的および意味的推論能力の両方に影響を与えることを示す。
また、異なるLLM間での様々な効果についても論じる。
関連論文リスト
- Intermediate Languages Matter: Formal Choice Drives Neurosymbolic LLM Reasoning [50.99811144731619]
形式言語の選択は構文的および意味論的推論能力の両方に影響を及ぼすことを示す。
平均的な文脈認識エンコーディングはLCMの推論に役立つが、コメントやマークダウン構文を使うことによる明らかな影響はない、と結論付けている。
論文 参考訳(メタデータ) (2025-02-24T14:49:52Z) - The LLM Language Network: A Neuroscientific Approach for Identifying Causally Task-Relevant Units [16.317199232071232]
大規模言語モデル(LLM)は、言語タスクだけでなく、言語的でない様々なタスクにも顕著な能力を示す。
人間の脳では、神経科学は言語処理を選択的に因果的にサポートするコア言語システムを特定している。
言語選択単位を18のLLMで同定し、神経科学で用いられるのと同じ局所化手法を用いて同定する。
論文 参考訳(メタデータ) (2024-11-04T17:09:10Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Meta-Reasoning: Semantics-Symbol Deconstruction for Large Language Models [34.22393697176282]
実世界の象徴的手法の適用性と適応性を広げるためのメタ推論を提案する。
この方法はLLMに対して、推論に依存しない意味情報を汎用的な記号表現に分解する権限を与える。
我々は、算術、記号、論理的推論といった従来の推論タスクを含む10以上のデータセットと、理論の推論のようなより複雑な対話的推論タスクに関する広範な実験を行う。
論文 参考訳(メタデータ) (2023-06-30T17:38:10Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。