論文の概要: BeliefBank: Adding Memory to a Pre-Trained Language Model for a
Systematic Notion of Belief
- arxiv url: http://arxiv.org/abs/2109.14723v1
- Date: Wed, 29 Sep 2021 21:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 07:40:56.082677
- Title: BeliefBank: Adding Memory to a Pre-Trained Language Model for a
Systematic Notion of Belief
- Title(参考訳): beliefbank: 体系的信念概念のための事前学習された言語モデルへの記憶の追加
- Authors: Nora Kassner, Oyvind Tafjord, Hinrich Sch\"utze, Peter Clark
- Abstract要約: モデルが実際に世界について何を「信じる」のかを特定することは困難であり、一貫性のない振る舞いや単純なエラーの影響を受けやすい。
我々のアプローチは、PTLMを進化し、シンボリックな信仰記憶を含むより広いシステムに組み込むことです。
制御された実験環境では、これらの2つのメカニズムがシステム全体においてより一貫した信念をもたらすことが示される。
- 参考スコア(独自算出の注目度): 20.60798513220516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although pretrained language models (PTLMs) contain significant amounts of
world knowledge, they can still produce inconsistent answers to questions when
probed, even after specialized training. As a result, it can be hard to
identify what the model actually "believes" about the world, making it
susceptible to inconsistent behavior and simple errors. Our goal is to reduce
these problems. Our approach is to embed a PTLM in a broader system that also
includes an evolving, symbolic memory of beliefs -- a BeliefBank -- that
records but then may modify the raw PTLM answers. We describe two mechanisms to
improve belief consistency in the overall system. First, a reasoning component
-- a weighted MaxSAT solver -- revises beliefs that significantly clash with
others. Second, a feedback component issues future queries to the PTLM using
known beliefs as context. We show that, in a controlled experimental setting,
these two mechanisms result in more consistent beliefs in the overall system,
improving both the accuracy and consistency of its answers over time. This is
significant as it is a first step towards PTLM-based architectures with a
systematic notion of belief, enabling them to construct a more coherent picture
of the world, and improve over time without model retraining.
- Abstract(参考訳): 事前訓練された言語モデル (PTLM) には膨大な量の世界知識が含まれているが、専門訓練後の質問に対する一貫性のない回答が得られる。
その結果、モデルが実際に世界について「信じている」ものを特定することが難しくなり、一貫性のない行動や単純なエラーに影響を受けやすくなります。
私たちの目標はこれらの問題を減らすことです。
私たちのアプローチは、PTLMをより広いシステムに組み込むことです。それは、進化を続けるシンボリックな信念記憶(BeliefBank)を含んでいます。
システム全体の信頼一貫性を改善する2つのメカニズムについて述べる。
まず、推論コンポーネント -- 重み付きmaxsatソルバ -- は、他人と著しく衝突する信念を改訂する。
第2に、フィードバックコンポーネントは、既知の信念をコンテキストとして、PTLMに将来的なクエリを発行する。
制御された実験環境では、この2つのメカニズムによってシステム全体の信頼性が向上し、時間とともに答えの正確性と一貫性が向上することが示された。
これは、PTLMベースのアーキテクチャの体系的な概念による最初のステップであり、より一貫性のある世界像を構築でき、モデルの再訓練なしに時間とともに改善できるため重要である。
関連論文リスト
- The ART of LLM Refinement: Ask, Refine, and Trust [85.75059530612882]
ART: Ask, Refine, and Trust と呼ばれる改良目標を用いた推論を提案する。
LLMがいつその出力を洗練すべきかを決めるために必要な質問を尋ねる。
自己補充ベースラインよりも+5ポイントの性能向上を達成する。
論文 参考訳(メタデータ) (2023-11-14T07:26:32Z) - Improving Language Models Meaning Understanding and Consistency by
Learning Conceptual Roles from Dictionary [65.268245109828]
現代事前訓練言語モデル(PLM)の非人間的行動は、その信頼性を損なう主要な原因である。
驚くべき現象は、矛盾した結果を生み出す不整合予測の生成である。
本研究では,PLMの認知度を向上させることで,一貫性のない行動問題を緩和する実践的アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-24T06:15:15Z) - Language Models with Rationality [57.37201135072838]
大規模言語モデル(LLM)は質問応答(QA)に熟練している
答えが潜んでいる「信条」からどのように従うか(あるいはたとえも)は必ずしも明確ではない。
論文 参考訳(メタデータ) (2023-05-23T17:04:25Z) - MoT: Memory-of-Thought Enables ChatGPT to Self-Improve [73.90376920653507]
我々は,注釈付きデータセットやパラメータ更新を使わずに,大規模言語モデルによる自己改善を実現するためのフレームワークであるMemory-of-Thoughtを提案する。
実験結果から,算術的推論,常識推論,事実推論,自然言語推論において,ChatGPTの能力向上に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-05-09T05:25:05Z) - FRSUM: Towards Faithful Abstractive Summarization via Enhancing Factual
Robustness [56.263482420177915]
我々は,既存のシステムの忠実さを,事実的堅牢性という新たな視点から研究する。
本研究では,新たなトレーニング戦略,すなわちFRSUMを提案し,そのモデルに対して,暗黙の対角的サンプルと暗黙の対向的摂動の両方を防御するように指導する。
論文 参考訳(メタデータ) (2022-11-01T06:09:00Z) - Entailer: Answering Questions with Faithful and Truthful Chains of
Reasoning [26.715242799194908]
質問応答システムは、体系的な推論の連鎖を通して、その答えが自身の内的信念によってどのように示唆されるかを示す。
我々のアプローチは、トレーニングされた後方チェーンモデルで、回答仮説を含む一連の前提を生成することができ、モデル自体がそれらの前提を信じることを確認する検証器を組み合わせることです。
私たちの知る限りでは、これは多段階連鎖を生成できる最初のシステムであり、それは忠実であり(その答えは推論から従う)、真実である(連鎖はシステムの内部の信念を反映している)。
論文 参考訳(メタデータ) (2022-10-21T19:51:56Z) - Towards Teachable Reasoning Systems [29.59387051046722]
質問応答のための授業可能な推論システム(QA)を開発した。
私たちのアプローチは3つあります。 まず、生成された推論の連鎖は、システムの内部の信念によってどのように答えが示唆されるかを示しています。
第二に、ユーザーは説明と対話して誤ったモデル信念を特定し、修正を行うことができる。
第3に、そのような補正の動的なメモリでモデルを増強する。
論文 参考訳(メタデータ) (2022-04-27T17:15:07Z) - Do Language Models Have Beliefs? Methods for Detecting, Updating, and
Visualizing Model Beliefs [76.6325846350907]
Dennett (1995) は、サーモスタットでさえ、信念は単なる情報状態であり、モチベーションのある状態とは切り離されているという観点から、信念を持っていると論じている。
本稿では,モデルが世界に対する信念をいつ持っているかを検出するためのアプローチについて論じるとともに,モデル信念をより誠実に更新する方法の改善について述べる。
論文 参考訳(メタデータ) (2021-11-26T18:33:59Z) - Enriching a Model's Notion of Belief using a Persistent Memory [20.60798513220516]
事前訓練された言語モデル(PTLM)は、調査時に質問に対する一貫性のない回答を生成することができる。
モデルが実際に世界について「信じる」ものを特定するのは難しいかもしれません。
私たちの目標はこの問題を減らすことで、システムはよりグローバルに一貫性があり、回答が正確です。
論文 参考訳(メタデータ) (2021-04-16T23:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。