論文の概要: BeliefBank: Adding Memory to a Pre-Trained Language Model for a
Systematic Notion of Belief
- arxiv url: http://arxiv.org/abs/2109.14723v1
- Date: Wed, 29 Sep 2021 21:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 07:40:56.082677
- Title: BeliefBank: Adding Memory to a Pre-Trained Language Model for a
Systematic Notion of Belief
- Title(参考訳): beliefbank: 体系的信念概念のための事前学習された言語モデルへの記憶の追加
- Authors: Nora Kassner, Oyvind Tafjord, Hinrich Sch\"utze, Peter Clark
- Abstract要約: モデルが実際に世界について何を「信じる」のかを特定することは困難であり、一貫性のない振る舞いや単純なエラーの影響を受けやすい。
我々のアプローチは、PTLMを進化し、シンボリックな信仰記憶を含むより広いシステムに組み込むことです。
制御された実験環境では、これらの2つのメカニズムがシステム全体においてより一貫した信念をもたらすことが示される。
- 参考スコア(独自算出の注目度): 20.60798513220516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although pretrained language models (PTLMs) contain significant amounts of
world knowledge, they can still produce inconsistent answers to questions when
probed, even after specialized training. As a result, it can be hard to
identify what the model actually "believes" about the world, making it
susceptible to inconsistent behavior and simple errors. Our goal is to reduce
these problems. Our approach is to embed a PTLM in a broader system that also
includes an evolving, symbolic memory of beliefs -- a BeliefBank -- that
records but then may modify the raw PTLM answers. We describe two mechanisms to
improve belief consistency in the overall system. First, a reasoning component
-- a weighted MaxSAT solver -- revises beliefs that significantly clash with
others. Second, a feedback component issues future queries to the PTLM using
known beliefs as context. We show that, in a controlled experimental setting,
these two mechanisms result in more consistent beliefs in the overall system,
improving both the accuracy and consistency of its answers over time. This is
significant as it is a first step towards PTLM-based architectures with a
systematic notion of belief, enabling them to construct a more coherent picture
of the world, and improve over time without model retraining.
- Abstract(参考訳): 事前訓練された言語モデル (PTLM) には膨大な量の世界知識が含まれているが、専門訓練後の質問に対する一貫性のない回答が得られる。
その結果、モデルが実際に世界について「信じている」ものを特定することが難しくなり、一貫性のない行動や単純なエラーに影響を受けやすくなります。
私たちの目標はこれらの問題を減らすことです。
私たちのアプローチは、PTLMをより広いシステムに組み込むことです。それは、進化を続けるシンボリックな信念記憶(BeliefBank)を含んでいます。
システム全体の信頼一貫性を改善する2つのメカニズムについて述べる。
まず、推論コンポーネント -- 重み付きmaxsatソルバ -- は、他人と著しく衝突する信念を改訂する。
第2に、フィードバックコンポーネントは、既知の信念をコンテキストとして、PTLMに将来的なクエリを発行する。
制御された実験環境では、この2つのメカニズムによってシステム全体の信頼性が向上し、時間とともに答えの正確性と一貫性が向上することが示された。
これは、PTLMベースのアーキテクチャの体系的な概念による最初のステップであり、より一貫性のある世界像を構築でき、モデルの再訓練なしに時間とともに改善できるため重要である。
関連論文リスト
- Belief Revision: The Adaptability of Large Language Models Reasoning [63.0281286287648]
本稿では,LMの信念修正能力をテストするための新しいデータセットであるBelief-Rを紹介する。
このタスクは、人間が事前の推論を抑える方法にインスパイアされ、新しく提案されたデルタ推論フレームワーク内のLMを評価する。
様々なプロンプト戦略にまたがる$sim$30 LMを評価した結果,LMは一般的に,新たな情報に反応して信念を適切に修正するのに苦慮していることがわかった。
論文 参考訳(メタデータ) (2024-06-28T09:09:36Z) - Can Large Language Models Always Solve Easy Problems if They Can Solve Harder Ones? [65.43882564649721]
大きな言語モデル(LLM)は印象的な機能を示しているが、それでも矛盾する問題に悩まされている。
我々はConsisEvalベンチマークを開発し、各エントリは厳密な難易度で2つの質問から構成される。
相対的整合性スコアによる整合性向上の可能性を分析する。
論文 参考訳(メタデータ) (2024-06-18T17:25:47Z) - Distilling Reasoning Ability from Large Language Models with Adaptive Thinking [54.047761094420174]
思考の微調整(cot-finetuning)の連鎖は、小さな言語モデル(SLM)を特定のタスクに対するパフォーマンス向上の推論能力で実現することを目的としている。
既存のコトファインタニング法の多くは事前に考えられたメカニズムを採用しており、SLMは答えを出す前に理性を生成することができる。
このメカニズムにより、SLMは複雑な質問を分析して考えることができるが、答えの正しさは論理的に小さな誤りに非常に敏感になる。
理性よりも先に回答を生成するための頑健な後思考機構を提案する。
論文 参考訳(メタデータ) (2024-04-14T07:19:27Z) - Improving Language Models Meaning Understanding and Consistency by
Learning Conceptual Roles from Dictionary [65.268245109828]
現代事前訓練言語モデル(PLM)の非人間的行動は、その信頼性を損なう主要な原因である。
驚くべき現象は、矛盾した結果を生み出す不整合予測の生成である。
本研究では,PLMの認知度を向上させることで,一貫性のない行動問題を緩和する実践的アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-24T06:15:15Z) - Language Models with Rationality [57.37201135072838]
大規模言語モデル(LLM)は質問応答(QA)に熟練している
答えが潜んでいる「信条」からどのように従うか(あるいはたとえも)は必ずしも明確ではない。
論文 参考訳(メタデータ) (2023-05-23T17:04:25Z) - Entailer: Answering Questions with Faithful and Truthful Chains of
Reasoning [26.715242799194908]
質問応答システムは、体系的な推論の連鎖を通して、その答えが自身の内的信念によってどのように示唆されるかを示す。
我々のアプローチは、トレーニングされた後方チェーンモデルで、回答仮説を含む一連の前提を生成することができ、モデル自体がそれらの前提を信じることを確認する検証器を組み合わせることです。
私たちの知る限りでは、これは多段階連鎖を生成できる最初のシステムであり、それは忠実であり(その答えは推論から従う)、真実である(連鎖はシステムの内部の信念を反映している)。
論文 参考訳(メタデータ) (2022-10-21T19:51:56Z) - Towards Teachable Reasoning Systems [29.59387051046722]
質問応答のための授業可能な推論システム(QA)を開発した。
私たちのアプローチは3つあります。 まず、生成された推論の連鎖は、システムの内部の信念によってどのように答えが示唆されるかを示しています。
第二に、ユーザーは説明と対話して誤ったモデル信念を特定し、修正を行うことができる。
第3に、そのような補正の動的なメモリでモデルを増強する。
論文 参考訳(メタデータ) (2022-04-27T17:15:07Z) - Do Language Models Have Beliefs? Methods for Detecting, Updating, and
Visualizing Model Beliefs [76.6325846350907]
Dennett (1995) は、サーモスタットでさえ、信念は単なる情報状態であり、モチベーションのある状態とは切り離されているという観点から、信念を持っていると論じている。
本稿では,モデルが世界に対する信念をいつ持っているかを検出するためのアプローチについて論じるとともに,モデル信念をより誠実に更新する方法の改善について述べる。
論文 参考訳(メタデータ) (2021-11-26T18:33:59Z) - Enriching a Model's Notion of Belief using a Persistent Memory [20.60798513220516]
事前訓練された言語モデル(PTLM)は、調査時に質問に対する一貫性のない回答を生成することができる。
モデルが実際に世界について「信じる」ものを特定するのは難しいかもしれません。
私たちの目標はこの問題を減らすことで、システムはよりグローバルに一貫性があり、回答が正確です。
論文 参考訳(メタデータ) (2021-04-16T23:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。