論文の概要: Maieutic Prompting: Logically Consistent Reasoning with Recursive
Explanations
- arxiv url: http://arxiv.org/abs/2205.11822v1
- Date: Tue, 24 May 2022 06:36:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 05:26:57.569366
- Title: Maieutic Prompting: Logically Consistent Reasoning with Recursive
Explanations
- Title(参考訳): Maieutic Prompting: 論理的に一貫性のある推論と再帰的説明
- Authors: Jaehun Jung, Lianhui Qin, Sean Welleck, Faeze Brahman, Chandra
Bhagavatula, Ronan Le Bras, Yejin Choi
- Abstract要約: ノイズや一貫性のない言語モデルでさえも問題に対する正しい答えを推測するMaieutic Promptingを開発する。
Maieutic Promptingは最先端のプロンプト法よりも最大20%精度が高い。
- 参考スコア(独自算出の注目度): 71.2950434944196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their impressive capabilities, large pre-trained language models
(LMs) struggle with consistent reasoning; recently, prompting LMs to generate
explanations that self-guide the inference has emerged as a promising direction
to amend this. However, these approaches are fundamentally bounded by the
correctness of explanations, which themselves are often noisy and inconsistent.
In this work, we develop Maieutic Prompting, which infers a correct answer to a
question even from the noisy and inconsistent generations of LM. Maieutic
Prompting induces a tree of explanations abductively (e.g. X is true, because
...) and recursively, then frames the inference as a satisfiability problem
over these explanations and their logical relations. We test Maieutic Prompting
for true/false QA on three challenging benchmarks that require complex
commonsense reasoning. Maieutic Prompting achieves up to 20% better accuracy
than state-of-the-art prompting methods, and as a fully unsupervised approach,
performs competitively with supervised models. We also show that Maieutic
Prompting improves robustness in inference while providing interpretable
rationales.
- Abstract(参考訳): その印象的な能力にもかかわらず、大規模な事前学習言語モデル(LM)は一貫性のある推論に苦慮している。
しかし、これらのアプローチは基本的に説明の正確性によって境界付けられており、それ自身はしばしば騒がしく一貫性がない。
本研究では,Mieutic Promptingを開発した。これはLMのノイズや一貫性のない世代であっても,質問に対する正しい答えを推測する。
マイユーティック・プロンプティング(英: Maieutic Prompting)は、帰納的に説明のツリーを誘導し(例えば X は真である...)、再帰的に推論をこれらの説明とそれらの論理関係に対して満足できる問題とみなす。
複雑なコモンセンス推論を必要とする3つの挑戦的なベンチマークにおいて、真偽QAに対するMaieutic Promptingをテストする。
Maieutic Promptingは最先端のプロンプト手法よりも最大20%精度が向上し、完全に教師なしのアプローチとして教師付きモデルと競合する。
また、Maieutic Promptingは、解釈可能な理性を提供しながら、推論の堅牢性を向上させることを示す。
関連論文リスト
- Towards More Faithful Natural Language Explanation Using Multi-Level
Contrastive Learning in VQA [7.141288053123662]
視覚的質問応答(VQA-NLE)における自然言語の説明は,ブラックボックスシステムに対するユーザの信頼を高めるために,自然言語文を生成することによって,モデルの意思決定プロセスを説明することを目的としている。
既存のポストホックな説明は、人間の論理的推論と常に一致している訳ではなく、1) 誘惑的不満足な説明は、生成した説明が論理的に答えに繋がらないこと、2) 現実的不整合性、2) 画像上の事実を考慮せずに解答の反事実的説明を偽示すること、3) 意味的摂動の過敏性、モデルは、小さな摂動によって引き起こされる意味的変化を認識できないこと、である。
論文 参考訳(メタデータ) (2023-12-21T05:51:55Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - Question Decomposition Improves the Faithfulness of Model-Generated
Reasoning [23.34325378824462]
大規模言語モデル(LLM)は、その振る舞いの正しさと安全性を検証するのが困難である。
一つのアプローチは、LLMが質問に答えるときにステップバイステップの推論を生成することによって、彼らの推論を外部化するように促すことである。
このアプローチは、モデルの実的推論を忠実に反映する記述された推論に依存しており、必ずしもそうではない。
分解に基づく手法は、時にはCoTの手法に近づき、質問応答タスクにおいて高い性能を達成する。
論文 参考訳(メタデータ) (2023-07-17T00:54:10Z) - Boosting Language Models Reasoning with Chain-of-Knowledge Prompting [18.326858925174605]
CoK(Chain-of-Knowledge)は、構造三重の形で明確な知識証拠を引き出すことを目的としている。
さらに, 推論チェーンの信頼性を推定するF2-Verification法を導入する。
広汎な実験により,本手法はコモンセンス,事実,記号,算術的推論タスクの性能をさらに向上させることができることが示された。
論文 参考訳(メタデータ) (2023-06-10T12:42:36Z) - Language Models with Rationality [57.37201135072838]
大規模言語モデル(LLM)は質問応答(QA)に熟練している
答えが潜んでいる「信条」からどのように従うか(あるいはたとえも)は必ずしも明確ではない。
論文 参考訳(メタデータ) (2023-05-23T17:04:25Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Towards Understanding Chain-of-Thought Prompting: An Empirical Study of
What Matters [82.84696222087396]
CoT(Chain-of-Thought)の促進により,大規模言語モデル(LLM)の多段階推論能力が劇的に向上する
無効な実演でもCoT推論が可能であることを示す。
論文 参考訳(メタデータ) (2022-12-20T05:20:54Z) - Faithful Reasoning Using Large Language Models [12.132449274592668]
因果構造が問題の根底にある論理構造を反映するプロセスを通じて、LMを忠実な多段階推論を行う方法を示す。
我々の手法は、各ステップが2つの微調整されたLMへの呼び出しから得られる推論ステップをチェーンすることで機能する。
我々は,多段階論理推論と科学的質問応答におけるモデルの有効性を実証し,最終的な解答精度のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-08-30T13:44:41Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。