論文の概要: Language Models with Rationality
- arxiv url: http://arxiv.org/abs/2305.14250v1
- Date: Tue, 23 May 2023 17:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 14:25:41.706805
- Title: Language Models with Rationality
- Title(参考訳): 合理性を持つ言語モデル
- Authors: Nora Kassner, Oyvind Tafjord, Ashish Sabharwal, Kyle Richardson,
Hinrich Schutze, Peter Clark
- Abstract要約: 大規模言語モデル(LLM)は質問応答(QA)に熟練している
彼らの答えと、彼らが世界に対して持つであろう他の「信条」の依存関係は、典型的には未定であり、矛盾しているかもしれない。
我々のゴールは、そのような依存関係を解明し、それら間の矛盾を減らし、一貫した信念のネットワークから引き出された、忠実でシステムに信頼された推論の連鎖によって答えが支えられるようにすることです。
- 参考スコア(独自算出の注目度): 47.0832625581338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) are proficient at question-answering (QA),
the dependencies between their answers and other "beliefs" they may have about
the world are typically unstated, and may even be in conflict. Our goal is to
uncover such dependencies and reduce inconsistencies among them, so that
answers are supported by faithful, system-believed chains of reasoning drawn
from a consistent network of beliefs. Our approach, which we call REFLEX, is to
add a "rational", self-reflecting layer on top of the LLM. First, given a
question, we construct a belief graph using a backward-chaining process to
materialize relevant model "beliefs" (including beliefs about answer
candidates) and the inferential relationships between them. Second, we identify
and minimize contradictions in that graph using a formal constraint reasoner.
We find that REFLEX significantly improves consistency (by 8%-11% absolute)
without harming overall answer accuracy, resulting in answers supported by
faithful chains of reasoning drawn from a more consistent belief system. This
suggests a new style of system architecture, in which an LLM extended with a
rational layer of self-reflection can repair latent inconsistencies within the
LLM alone.
- Abstract(参考訳): 大規模言語モデル(llm)はq&a(q&a: question-answering)に熟達しているが、回答と世界に関する他の「信条」の間の依存関係は一般的に公表されておらず、紛争状態にある可能性もある。
我々のゴールは、そのような依存関係を解明し、それら間の矛盾を減らし、一貫した信念のネットワークから引き出された、忠実でシステムに信頼された推論の連鎖によって答えが支えられるようにすることです。
われわれのアプローチはREFLEXと呼ばれ、LSMの上に「合理的な自己反射層」を追加することである。
第一に、ある疑問が与えられた場合、我々は、関係するモデル「信念」(回答候補に関する信念を含む)とそれらの間の推論関係を構成するために、後方連鎖プロセスを用いて信念グラフを構築します。
第二に、形式的制約推論器を用いて、そのグラフの矛盾を識別し、最小化する。
その結果,REFLEXは全体の解答精度を損なうことなく,一貫性を8%-11%向上させ,より一貫した信念体系から引き出された推論の忠実な連鎖に支えられることがわかった。
これは、自己反射の合理的な層で拡張されたllmが、llm単独で潜在不整合を修復できる、新しいスタイルのシステムアーキテクチャを示唆する。
関連論文リスト
- Can Large Language Models Faithfully Express Their Intrinsic Uncertainty in Words? [21.814007454504978]
大規模言語モデル(LLM)は,自然言語における本質的な不確実性を表現できることが示唆された。
我々は、モデル固有のアサーションに対する信頼のギャップと、それらが伝達される決定性に基づいて、忠実な応答の不確実性を定式化する。
論文 参考訳(メタデータ) (2024-05-27T07:56:23Z) - Mitigating Misleading Chain-of-Thought Reasoning with Selective Filtering [59.495717939664246]
大規模言語モデルは、複雑な問題を解くためにチェーン・オブ・ソート(CoT)推論技術を活用することで、顕著な能力を示した。
本稿では,選択フィルタリング推論(SelF-Reasoner)と呼ばれる新しい手法を提案する。
SelF-ReasonerはScienceQA、ECQA、LastLetterタスクに対して、微調整されたT5ベースラインを一貫して改善する。
論文 参考訳(メタデータ) (2024-03-28T06:28:35Z) - Faithfulness vs. Plausibility: On the (Un)Reliability of Explanations from Large Language Models [26.11408084129897]
大規模言語モデル(LLM)は、いくつかの自然言語処理(NLP)アプリケーションのための強力なツールとしてデプロイされる。
最近の研究は、現代のLSMが自己説明(Ses)を生成できることを示している。
LLMが生成するSEの忠実度と妥当性の両立を論じる。
論文 参考訳(メタデータ) (2024-02-07T06:32:50Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - The ART of LLM Refinement: Ask, Refine, and Trust [85.75059530612882]
ART: Ask, Refine, and Trust と呼ばれる改良目標を用いた推論を提案する。
LLMがいつその出力を洗練すべきかを決めるために必要な質問を尋ねる。
自己補充ベースラインよりも+5ポイントの性能向上を達成する。
論文 参考訳(メタデータ) (2023-11-14T07:26:32Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Question Decomposition Improves the Faithfulness of Model-Generated
Reasoning [23.34325378824462]
大規模言語モデル(LLM)は、その振る舞いの正しさと安全性を検証するのが困難である。
一つのアプローチは、LLMが質問に答えるときにステップバイステップの推論を生成することによって、彼らの推論を外部化するように促すことである。
このアプローチは、モデルの実的推論を忠実に反映する記述された推論に依存しており、必ずしもそうではない。
分解に基づく手法は、時にはCoTの手法に近づき、質問応答タスクにおいて高い性能を達成する。
論文 参考訳(メタデータ) (2023-07-17T00:54:10Z) - Boosting Language Models Reasoning with Chain-of-Knowledge Prompting [18.326858925174605]
CoK(Chain-of-Knowledge)は、構造三重の形で明確な知識証拠を引き出すことを目的としている。
さらに, 推論チェーンの信頼性を推定するF2-Verification法を導入する。
広汎な実験により,本手法はコモンセンス,事実,記号,算術的推論タスクの性能をさらに向上させることができることが示された。
論文 参考訳(メタデータ) (2023-06-10T12:42:36Z) - Entailer: Answering Questions with Faithful and Truthful Chains of
Reasoning [26.715242799194908]
質問応答システムは、体系的な推論の連鎖を通して、その答えが自身の内的信念によってどのように示唆されるかを示す。
我々のアプローチは、トレーニングされた後方チェーンモデルで、回答仮説を含む一連の前提を生成することができ、モデル自体がそれらの前提を信じることを確認する検証器を組み合わせることです。
私たちの知る限りでは、これは多段階連鎖を生成できる最初のシステムであり、それは忠実であり(その答えは推論から従う)、真実である(連鎖はシステムの内部の信念を反映している)。
論文 参考訳(メタデータ) (2022-10-21T19:51:56Z) - Maieutic Prompting: Logically Consistent Reasoning with Recursive
Explanations [71.2950434944196]
ノイズや一貫性のない言語モデルでさえも問題に対する正しい答えを推測するMaieutic Promptingを開発する。
Maieutic Promptingは最先端のプロンプト法よりも最大20%精度が高い。
論文 参考訳(メタデータ) (2022-05-24T06:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。