論文の概要: Logical Negation Augmenting and Debiasing for Prompt-based Methods
- arxiv url: http://arxiv.org/abs/2405.04872v1
- Date: Wed, 8 May 2024 08:05:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 15:04:15.610637
- Title: Logical Negation Augmenting and Debiasing for Prompt-based Methods
- Title(参考訳): プロンプト法における論理的否定の増大とデバイアス
- Authors: Yitian Li, Jidong Tian, Hao He, Yaohui Jin,
- Abstract要約: 本稿では,一階述語論理推論におけるプロンプトに基づく手法の有効性に着目した。
ボトルネックは論理的否定にあることが分かっています。
提案手法は単純だが効果的なネガゲーション拡張とネガゲーションデバイアスリングである。
- 参考スコア(独自算出の注目度): 19.879616265315637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt-based methods have gained increasing attention on NLP and shown validity on many downstream tasks. Many works have focused on mining these methods' potential for knowledge extraction, but few explore their ability to make logical reasoning. In this work, we focus on the effectiveness of the prompt-based methods on first-order logical reasoning and find that the bottleneck lies in logical negation. Based on our analysis, logical negation tends to result in spurious correlations to negative answers, while propositions without logical negation correlate to positive answers. To solve the problem, we propose a simple but effective method, Negation Augmenting and Negation Debiasing (NAND), which introduces negative propositions to prompt-based methods without updating parameters. Specifically, these negative propositions can counteract spurious correlations by providing "not" for all instances so that models cannot make decisions only by whether expressions contain a logical negation. Experiments on three datasets show that NAND not only solves the problem of calibrating logical negation but also significantly enhances prompt-based methods of logical reasoning without model retraining.
- Abstract(参考訳): プロンプトに基づく手法は、NLPに注目が集まり、多くの下流タスクに有効であることが示されている。
多くの研究は、これらの手法の知識抽出の可能性のマイニングに重点を置いているが、論理的推論を行う能力を探る研究は少ない。
本研究では,一階論理的推論におけるプロンプトに基づく手法の有効性に着目し,そのボトルネックが論理的否定にあることを明らかにする。
論理否定は、論理否定のない命題が正の答えに相関するのに対し、論理否定は負の答えに急激な相関をもたらす傾向にある。
この問題を解決するために,パラメータを更新せずにプロンプトベースの手法に負の命題を導入する,単純で効果的なネゲーション拡張・ネゲーションデバイアス法(NAND)を提案する。
具体的には、これらの負の命題は全てのインスタンスに"not"を与え、式が論理的否定を含むかどうかによってのみ決定できないようにすることで、急激な相関に対処することができる。
3つのデータセットの実験により、NANDは論理的否定を校正する問題を解くだけでなく、モデルの再学習なしに論理的推論のプロンプトに基づく手法を大幅に強化することを示した。
関連論文リスト
- Logic-of-Thought: Injecting Logic into Contexts for Full Reasoning in Large Language Models [10.106408289179463]
本稿では,入力コンテキストから拡張論理情報を生成するために,命題論理を利用するロジック・オブ・ソート(LoT)プロンプトを提案する。
LoTは5つの論理的推論タスクで顕著なマージンで、様々なプロンプトメソッドのパフォーマンスを向上する。
論文 参考訳(メタデータ) (2024-09-26T04:59:45Z) - NL2FOL: Translating Natural Language to First-Order Logic for Logical Fallacy Detection [45.28949266878263]
本研究では,自然言語を一階論理に変換することによって,論理的誤りを確実に検出する手法を設計する。
次に、満足度モデュロ理論(SMT)を用いて、式の有効性を推論する。
私たちのアプローチは堅牢で解釈可能で、トレーニングデータや微調整は必要ありません。
論文 参考訳(メタデータ) (2024-04-18T00:20:48Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - On the Paradox of Learning to Reason from Data [86.13662838603761]
BERTは,同じ問題空間上での他のデータ分布への一般化に失敗しながら,分布内テスト例に対してほぼ完全な精度が得られることを示す。
このパラドックスは、正しい推論関数をエミュレートする学習ではなく、論理的推論問題に本質的に存在する統計的特徴を実際に学習している。
論文 参考訳(メタデータ) (2022-05-23T17:56:48Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Logic Embeddings for Complex Query Answering [56.25151854231117]
skolemisationを用いて効率的なクエリのための存在変数を排除する、複雑なクエリを組み込む新しいアプローチであるlogic embeddedsを提案する。
論理組込みは,大規模で不完全な知識グラフ上でのクエリ応答において競争的に高速かつ正確であり,否定的問合せよりも優れており,特に回答の不確かさのモデリングが向上している。
論文 参考訳(メタデータ) (2021-02-28T07:52:37Z) - LOREN: Logic Enhanced Neural Reasoning for Fact Verification [24.768868510218002]
本稿では,論理誘導推論とニューラル推論を統合したファクト検証手法であるLORENを提案する。
単一の推論ユニットを直接検証する代わりに、LORENはそれを質問応答タスクにします。
実験の結果,提案手法は他の方法よりも優れており,73.43%の発熱率を達成した。
論文 参考訳(メタデータ) (2020-12-25T13:57:04Z) - Negation in Cognitive Reasoning [0.5801044612920815]
否定は形式論理と自然言語の操作である。
認知推論の1つのタスクは、自然言語で文によって与えられた質問に答えることである。
論文 参考訳(メタデータ) (2020-12-23T13:22:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。