論文の概要: Robustness of Neurosymbolic Reasoners on First-Order Logic Problems
- arxiv url: http://arxiv.org/abs/2509.17377v1
- Date: Mon, 22 Sep 2025 06:35:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.238374
- Title: Robustness of Neurosymbolic Reasoners on First-Order Logic Problems
- Title(参考訳): ニューロシンボリック共振器の1次論理問題に対するロバスト性
- Authors: Hannah Bansal, Kemal Kurniawan, Lea Frermann,
- Abstract要約: NLPの最近のトレンドは、Large Language Models (LLMs)における推論能力の向上を目指している。
対実的タスクの変種は、最小限だが意味論的に意味のある変更を、他の有効な一階述語論理問題インスタンスに導入する。
以前の研究では、LLMは反ファクトの変動に弱いことが示されており、しばしば反応を生成するために急激な表面パターンに依存していることが示唆された。
- 参考スコア(独自算出の注目度): 10.709769083243172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent trends in NLP aim to improve reasoning capabilities in Large Language Models (LLMs), with key focus on generalization and robustness to variations in tasks. Counterfactual task variants introduce minimal but semantically meaningful changes to otherwise valid first-order logic (FOL) problem instances altering a single predicate or swapping roles of constants to probe whether a reasoning system can maintain logical consistency under perturbation. Previous studies showed that LLMs becomes brittle on counterfactual variations, suggesting that they often rely on spurious surface patterns to generate responses. In this work, we explore if a neurosymbolic (NS) approach that integrates an LLM and a symbolic logical solver could mitigate this problem. Experiments across LLMs of varying sizes show that NS methods are more robust but perform worse overall that purely neural methods. We then propose NSCoT that combines an NS method and Chain-of-Thought (CoT) prompting and demonstrate that while it improves performance, NSCoT still lags behind standard CoT. Our analysis opens research directions for future work.
- Abstract(参考訳): NLPの最近のトレンドは、多言語モデル(LLM)における推論能力の改善であり、タスクの一般化とロバスト性に重点を置いている。
対実的タスクの変種は、最小限だが意味論的に意味のある変更を導入し、それ以外は有効な一階述語論理(FOL)問題インスタンスが1つの述語を変更したり、定数の役割を交換したりして、推論システムが摂動下で論理的一貫性を維持することができるかどうかを調査する。
以前の研究では、LLMは反ファクトの変動に弱いことが示されており、しばしば反応を生成するために急激な表面パターンに依存していることが示唆された。
本研究では,LLMと記号論理解法を統合したニューロシンボリック(NS)アプローチがこの問題を軽減することができるかどうかを考察する。
異なる大きさのLSMをまたいだ実験では、NS法はより堅牢であるが、純粋に神経学的手法よりも全体的なパフォーマンスが悪くなっていることが示されている。
次に、NSメソッドとCoT(Chain-of-Thought)を組み合わせたNSCoTを提案する。
我々の分析は今後の研究の方向性を開放する。
関連論文リスト
- Syzygy of Thoughts: Improving LLM CoT with the Minimal Free Resolution [59.39066657300045]
CoT(Chain-of-Thought)は、問題を逐次ステップに分解することで、大きな言語モデル(LLM)の推論を促進する。
思考のシジー(Syzygy of Thoughts, SoT)は,CoTを補助的,相互関連的な推論経路を導入して拡張する新しいフレームワークである。
SoTはより深い論理的依存関係をキャプチャし、より堅牢で構造化された問題解決を可能にする。
論文 参考訳(メタデータ) (2025-04-13T13:35:41Z) - Reasoning Under 1 Billion: Memory-Augmented Reinforcement Learning for Large Language Models [53.4530106173067]
強化学習(RL)を伴う大規模言語モデル(LLM)は、複雑な推論タスクにおいて有望な改善を示す。
RLは10億のパラメータを持つ小さなLLMでは、効果的に探索するために必要な事前訓練能力が欠如しているため、依然として困難である。
この研究は、この課題に対処するためにエピソード記憶を活用する、新しい本質的なモチベーションアプローチを導入する。
論文 参考訳(メタデータ) (2025-04-03T04:46:17Z) - MetaLadder: Ascending Mathematical Solution Quality via Analogical-Problem Reasoning Transfer [37.81465564673498]
大規模言語モデル(LLM)は、数学的推論タスクを解く上で有望な能力を示した。
メタプロブレムのリコールとリフレクションを LLM に明示的に促すフレームワークである textbfMetaLadder を提案する。
我々のMetaLadderはLLMの問題解決精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2025-03-19T04:36:35Z) - Improving Rule-based Reasoning in LLMs using Neurosymbolic Representations [3.5604294978773265]
大規模言語モデル(LLM)は、推論タスクを確実に解決する上で、引き続き課題に直面している。
本稿では,隠れた状態をニューロシンボリックベクターにエンコードすることで,LLM推論を改善する新しいニューロシンボリック手法を提案する。
論文 参考訳(メタデータ) (2025-01-31T20:29:51Z) - LiNeS: Post-training Layer Scaling Prevents Forgetting and Enhances Model Merging [80.17238673443127]
LiNeSは、微調整タスク性能を向上しつつ、事前訓練された一般化を維持するために設計されたポストトレーニング編集技術である。
LiNeSは、視覚と自然言語処理のさまざまなベンチマークにおいて、シングルタスクとマルチタスクの両方で大幅に改善されている。
論文 参考訳(メタデータ) (2024-10-22T16:26:05Z) - Training Quantised Neural Networks with STE Variants: the Additive Noise
Annealing Algorithm [16.340620299847384]
量子化されたニューラルネットワーク(QNN)のトレーニングは、重みと特徴が断片的な定数関数によって出力されるため、微分不可能な問題である。
標準的な解決策は、推論と計算のステップで異なる関数を使用するストレートスルー推定器(STE)を適用することである。
トレーニングネットワークのタスク精度を最大化することを目的とした、いくつかのSTE変種が文献で提案されている。
論文 参考訳(メタデータ) (2022-03-21T20:14:27Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。