論文の概要: Intermediate Languages Matter: Formal Languages and LLMs affect Neurosymbolic Reasoning
- arxiv url: http://arxiv.org/abs/2509.04083v1
- Date: Thu, 04 Sep 2025 10:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.131377
- Title: Intermediate Languages Matter: Formal Languages and LLMs affect Neurosymbolic Reasoning
- Title(参考訳): 中間言語が重要:形式言語とLLMがニューロシンボリック推論に影響を及ぼす
- Authors: Alexander Beiser, David Penz, Nysret Musliu,
- Abstract要約: 大きな言語モデル(LLM)は、幅広いタスクにおいて驚くべき結果をもたらすが、正式な推論能力はまだ遅れている。
有望なアプローチは、ニューロシンボリックLSM推論である。
本稿では,これまで見過ごされてきた要素が形式言語の選択であることを示す。
- 参考スコア(独自算出の注目度): 46.02329567377897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) achieve astonishing results on a wide range of tasks. However, their formal reasoning ability still lags behind. A promising approach is Neurosymbolic LLM reasoning. It works by using LLMs as translators from natural to formal languages and symbolic solvers for deriving correct results. Still, the contributing factors to the success of Neurosymbolic LLM reasoning remain unclear. This paper demonstrates that one previously overlooked factor is the choice of the formal language. We introduce the intermediate language challenge: selecting a suitable formal language for neurosymbolic reasoning. By comparing four formal languages across three datasets and seven LLMs, we show that the choice of formal language affects both syntactic and semantic reasoning capabilities. We also discuss the varying effects across different LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広いタスクにおいて驚くべき結果をもたらす。
しかし、彼らの正式な推論能力はいまだに遅れている。
有望なアプローチは、ニューロシンボリックLSM推論である。
LLMを自然言語から形式言語への翻訳や、正しい結果の導出のためのシンボリック・ソルバとして利用する。
それでも、ニューロシンボリックLSM推論の成功に寄与する要因ははっきりしない。
本稿では,これまで見過ごされてきた要素が形式言語の選択であることを示す。
本稿では、ニューロシンボリック推論に適した形式言語を選択するという中間言語課題を紹介する。
3つのデータセットと7つのLLMの4つの形式言語を比較することにより、形式言語の選択が構文的および意味的推論能力の両方に影響を与えることを示す。
また、異なるLLM間での様々な効果についても論じる。
関連論文リスト
- Understanding Syllogistic Reasoning in LLMs from Formal and Natural Language Perspectives [0.5161531917413708]
論理的および自然言語的観点から, LLMにおけるシロメトリクス推論について検討する。
我々は、14の大規模言語モデルを用いて、シンボリック推論と自然言語理解の観点から、それらのシロジカル推論能力を調査する。
論文 参考訳(メタデータ) (2025-12-14T09:50:10Z) - Do Large Language Models Excel in Complex Logical Reasoning with Formal Language? [20.53475791645822]
大規模言語モデル(LLM)は、複雑な論理的推論タスクにおいてブレークスルーのパフォーマンスを達成することが示されている。
本稿では,形式言語を用いた論理的推論問題に対して,LLMを包括的に評価することを目的とする。
論文 参考訳(メタデータ) (2025-05-22T17:57:23Z) - When Less Language is More: Language-Reasoning Disentanglement Makes LLMs Better Multilingual Reasoners [111.50503126693444]
言語固有のアブレーションは多言語推論性能を継続的に向上させることを示す。
トレーニング後のアブレーションと比較して、トレーニング不要のアブレーションは、計算オーバーヘッドを最小限に抑えながら、同等または優れた結果が得られる。
論文 参考訳(メタデータ) (2025-05-21T08:35:05Z) - On the Thinking-Language Modeling Gap in Large Language Models [68.83670974539108]
言語と思考のモデリングには大きなギャップがあることが示される。
本稿では,このギャップを実証し緩和するために,Language-of-Thoughts (LoT) と呼ばれる新しいプロンプト手法を提案する。
論文 参考訳(メタデータ) (2025-05-19T09:31:52Z) - Intermediate Languages Matter: Formal Choice Drives Neurosymbolic LLM Reasoning [50.99811144731619]
形式言語の選択は構文的および意味論的推論能力の両方に影響を及ぼすことを示す。
平均的な文脈認識エンコーディングはLCMの推論に役立つが、コメントやマークダウン構文を使うことによる明らかな影響はない、と結論付けている。
論文 参考訳(メタデータ) (2025-02-24T14:49:52Z) - The LLM Language Network: A Neuroscientific Approach for Identifying Causally Task-Relevant Units [16.317199232071232]
大規模言語モデル(LLM)は、言語タスクだけでなく、言語的でない様々なタスクにも顕著な能力を示す。
人間の脳では、神経科学は言語処理を選択的に因果的にサポートするコア言語システムを特定している。
言語選択単位を18のLLMで同定し、神経科学で用いられるのと同じ局所化手法を用いて同定する。
論文 参考訳(メタデータ) (2024-11-04T17:09:10Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Meta-Reasoning: Semantics-Symbol Deconstruction for Large Language Models [34.22393697176282]
実世界の象徴的手法の適用性と適応性を広げるためのメタ推論を提案する。
この方法はLLMに対して、推論に依存しない意味情報を汎用的な記号表現に分解する権限を与える。
我々は、算術、記号、論理的推論といった従来の推論タスクを含む10以上のデータセットと、理論の推論のようなより複雑な対話的推論タスクに関する広範な実験を行う。
論文 参考訳(メタデータ) (2023-06-30T17:38:10Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。