論文の概要: LogicPrpBank: A Corpus for Logical Implication and Equivalence
- arxiv url: http://arxiv.org/abs/2402.09609v1
- Date: Wed, 14 Feb 2024 22:36:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 17:56:20.172904
- Title: LogicPrpBank: A Corpus for Logical Implication and Equivalence
- Title(参考訳): LogicPrpBank: 論理的含意と等価性のためのコーパス
- Authors: Zhexiong Liu, Jing Zhang, Jiaying Lu, Wenjing Ma, Joyce C Ho
- Abstract要約: 本稿では,7093 Propositional Logic Statements (PLS) を含む提案論理コーパス LogicPrpBank を提案する。
私たちのコーパスは、この困難なタスクに有用なリソースを提供しており、モデル改善のための十分なスペースがあることを示します。
- 参考スコア(独自算出の注目度): 12.475182970975887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Logic reasoning has been critically needed in problem-solving and
decision-making. Although Language Models (LMs) have demonstrated capabilities
of handling multiple reasoning tasks (e.g., commonsense reasoning), their
ability to reason complex mathematical problems, specifically propositional
logic, remains largely underexplored. This lack of exploration can be
attributed to the limited availability of annotated corpora. Here, we present a
well-labeled propositional logic corpus, LogicPrpBank, containing 7093
Propositional Logic Statements (PLSs) across six mathematical subjects, to
study a brand-new task of reasoning logical implication and equivalence. We
benchmark LogicPrpBank with widely-used LMs to show that our corpus offers a
useful resource for this challenging task and there is ample room for model
improvement.
- Abstract(参考訳): 論理的推論は問題解決と意思決定において極めて重要である。
言語モデル(lms)は複数の推論タスク(例えば、コモンセンス推論)を扱う能力を示しているが、複雑な数学的問題、特に命題論理を推論する能力はほとんど未熟である。
この探索の欠如は、注釈付きコーパスの可用性が限られているためである。
本稿では,7093 Propositional Logic Statements (PLSs) を6つの数学科目で含む提案論理コーパス LogicPrpBank を紹介し,論理的含意と等価性を推論する新たな課題について検討する。
私たちは logicprpbank を広く使用されている lms でベンチマークし、我々のコーパスがこの困難なタスクに有用なリソースを提供し、モデル改善の余地が十分にあることを示す。
関連論文リスト
- Enhancing Reasoning Capabilities of LLMs via Principled Synthetic Logic Corpus [13.276829763453433]
大規模言語モデル(LLM)は幅広いタスクを解くことができるが、推論に苦戦している。
本稿では,プログラム生成論理推論サンプルを用いてLLMの推論能力を高めることを目的として,$textbfAdditional Logic Training (ALT)$を提案する。
論文 参考訳(メタデータ) (2024-11-19T13:31:53Z) - Leveraging LLMs for Hypothetical Deduction in Logical Inference: A Neuro-Symbolic Approach [11.400815134634016]
本稿では,忠実な論理的推論のためのニューロシンボリックアプローチであるLINAを紹介する。
LLMが命題論理抽出から洗練された論理推論への移行を自律的に行えるようにすることで、LINAは推論プロセスのレジリエンスを高める。
実証的な評価は、LINAが確立された命題論理フレームワークと従来のプロンプト技術の両方を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2024-10-29T06:38:46Z) - Logic-of-Thought: Injecting Logic into Contexts for Full Reasoning in Large Language Models [10.106408289179463]
本稿では,入力コンテキストから拡張論理情報を生成するために,命題論理を利用するロジック・オブ・ソート(LoT)プロンプトを提案する。
LoTは5つの論理的推論タスクで顕著なマージンで、様々なプロンプトメソッドのパフォーマンスを向上する。
論文 参考訳(メタデータ) (2024-09-26T04:59:45Z) - Disentangling Logic: The Role of Context in Large Language Model Reasoning Capabilities [31.728976421529577]
包括的なドメイン集合からの抽象的および文脈的論理的問題に対するコントラストについて検討する。
我々は、標準的な命題論理、特に命題推論と帰納論理推論に焦点を当てる。
本実験は,LLMの論理的推論と真の推論能力に関する知見を提供することを目的としている。
論文 参考訳(メタデータ) (2024-06-04T21:25:06Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - LogicAsker: Evaluating and Improving the Logical Reasoning Ability of Large Language Models [63.14196038655506]
大規模言語モデル(LLM)の論理的推論能力を評価・拡張するための新しいアプローチであるLogicAskerを紹介する。
提案手法は, LLMが論理規則を学習する際の大きなギャップを明らかにし, 異なるモデル間で29%から90%の推論失敗を識別する。
GPT-4oのようなモデルにおける論理的推論を最大5%向上させることで、これらの知見を活用して、ターゲットとなる実演例と微調整データを構築した。
論文 参考訳(メタデータ) (2024-01-01T13:53:53Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z) - Discourse-Aware Graph Networks for Textual Logical Reasoning [142.0097357999134]
パッセージレベルの論理関係は命題単位間の係り合いまたは矛盾を表す(例、結論文)
論理的推論QAを解くための論理構造制約モデリングを提案し、談話対応グラフネットワーク(DAGN)を導入する。
ネットワークはまず、インラインの談話接続とジェネリック論理理論を利用した論理グラフを構築し、その後、エッジ推論機構を用いて論理関係を進化させ、グラフ機能を更新することで論理表現を学習する。
論文 参考訳(メタデータ) (2022-07-04T14:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。