論文の概要: Do Language Models Have Beliefs? Methods for Detecting, Updating, and
Visualizing Model Beliefs
- arxiv url: http://arxiv.org/abs/2111.13654v1
- Date: Fri, 26 Nov 2021 18:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 14:22:34.260480
- Title: Do Language Models Have Beliefs? Methods for Detecting, Updating, and
Visualizing Model Beliefs
- Title(参考訳): 言語モデルは信念を持っているか?
モデル信念の検出・更新・可視化方法
- Authors: Peter Hase, Mona Diab, Asli Celikyilmaz, Xian Li, Zornitsa Kozareva,
Veselin Stoyanov, Mohit Bansal, Srinivasan Iyer
- Abstract要約: Dennett (1995) は、サーモスタットでさえ、信念は単なる情報状態であり、モチベーションのある状態とは切り離されているという観点から、信念を持っていると論じている。
本稿では,モデルが世界に対する信念をいつ持っているかを検出するためのアプローチについて論じるとともに,モデル信念をより誠実に更新する方法の改善について述べる。
- 参考スコア(独自算出の注目度): 76.6325846350907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Do language models have beliefs about the world? Dennett (1995) famously
argues that even thermostats have beliefs, on the view that a belief is simply
an informational state decoupled from any motivational state. In this paper, we
discuss approaches to detecting when models have beliefs about the world, and
we improve on methods for updating model beliefs to be more truthful, with a
focus on methods based on learned optimizers or hypernetworks. Our main
contributions include: (1) new metrics for evaluating belief-updating methods
that focus on the logical consistency of beliefs, (2) a training objective for
Sequential, Local, and Generalizing model updates (SLAG) that improves the
performance of learned optimizers, and (3) the introduction of the belief
graph, which is a new form of interface with language models that shows the
interdependencies between model beliefs. Our experiments suggest that models
possess belief-like qualities to only a limited extent, but update methods can
both fix incorrect model beliefs and greatly improve their consistency.
Although off-the-shelf optimizers are surprisingly strong belief-updating
baselines, our learned optimizers can outperform them in more difficult
settings than have been considered in past work. Code is available at
https://github.com/peterbhase/SLAG-Belief-Updating
- Abstract(参考訳): 言語モデルは世界に対する信念を持っているか?
dennett (1995) は、サーモスタットでさえも、信念は単にモチベーション的な状態から切り離された情報的状態であるという観点から、信念を持っていると論じている。
本稿では,モデルが世界の信念を持っていることを検知するアプローチについて議論し,学習オプティマイザやハイパーネットワークに基づく手法に着目して,モデル信念をより真実に更新する方法を改善した。
本研究の主な貢献は,(1) 信念の論理的整合性に着目した信念更新手法を評価するための新しい指標,(2) 学習オプティマイザの性能を向上させる逐次的,局所的,一般化的モデル更新(SLAG)のトレーニング目標,(3) モデル信念間の相互依存性を示す言語モデルとのインターフェースの新たな形式である信念グラフの導入である。
私たちの実験は、モデルが信念のような性質しか持たないことを示唆しているが、更新メソッドは誤ったモデル信念を修正し、一貫性を大幅に改善することができる。
既製のオプティマイザは驚くほど強い信念向上ベースラインですが、学習したオプティマイザは、過去の作業よりも難しい設定でそれらを上回ることができるのです。
コードはhttps://github.com/peterbhase/SLAG-Belief-Updatingで入手できる。
関連論文リスト
- Interpretability Needs a New Paradigm [49.134097841837715]
解釈可能性(英: Interpretability)とは、人間に理解可能な言葉でモデルを説明する研究である。
この議論の核心は、それぞれのパラダイムがその説明が忠実である、すなわちモデルの振舞いに忠実であることをいかに保証するかである。
この論文の立場は、信仰を警戒しながら新しいパラダイムを考えるべきだというものである。
論文 参考訳(メタデータ) (2024-05-08T19:31:06Z) - Overcoming the Pitfalls of Vision-Language Model Finetuning for OOD Generalization [11.140366256534474]
既存の視覚言語モデルは、様々な視覚領域やタスクに対して強力な一般化を示す。
本稿では,OOD ゲネラリゼーションを改良するための新しいアプローチである OGEN を提案する。
具体的には、未知のクラスのクラス名のみを使用して、OOD機能を合成するために、クラス条件フィーチャジェネレータが導入された。
論文 参考訳(メタデータ) (2024-01-29T06:57:48Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Chain of Hindsight Aligns Language Models with Feedback [62.68665658130472]
我々は,その極性に関係なく,任意の形式のフィードバックから学習し,最適化が容易な新しい手法であるChain of Hindsightを提案する。
我々は、あらゆる種類のフィードバックを文のシーケンスに変換し、それをモデルを微調整するために使用する。
そうすることで、モデルはフィードバックに基づいて出力を生成するように訓練され、負の属性やエラーを特定し修正する。
論文 参考訳(メタデータ) (2023-02-06T10:28:16Z) - Suspected Object Matters: Rethinking Model's Prediction for One-stage
Visual Grounding [93.82542533426766]
疑似オブジェクト間の対象オブジェクト選択を促進するため,疑似オブジェクト変換機構(SOT)を提案する。
SOTは既存のCNNとTransformerベースのワンステージ視覚グラウンドにシームレスに統合できる。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-10T06:41:07Z) - Mismatched No More: Joint Model-Policy Optimization for Model-Based RL [172.37829823752364]
本稿では,モデルとポリシーを共同でトレーニングする単一目的について提案する。
我々の目標は、期待されるリターンのグローバルな低い境界であり、この境界は特定の仮定の下で厳密になる。
結果のアルゴリズム(MnM)は概念的にはGANと似ている。
論文 参考訳(メタデータ) (2021-10-06T13:43:27Z) - BeliefBank: Adding Memory to a Pre-Trained Language Model for a
Systematic Notion of Belief [20.60798513220516]
モデルが実際に世界について何を「信じる」のかを特定することは困難であり、一貫性のない振る舞いや単純なエラーの影響を受けやすい。
我々のアプローチは、PTLMを進化し、シンボリックな信仰記憶を含むより広いシステムに組み込むことです。
制御された実験環境では、これらの2つのメカニズムがシステム全体においてより一貫した信念をもたらすことが示される。
論文 参考訳(メタデータ) (2021-09-29T21:04:27Z) - Enriching a Model's Notion of Belief using a Persistent Memory [20.60798513220516]
事前訓練された言語モデル(PTLM)は、調査時に質問に対する一貫性のない回答を生成することができる。
モデルが実際に世界について「信じる」ものを特定するのは難しいかもしれません。
私たちの目標はこの問題を減らすことで、システムはよりグローバルに一貫性があり、回答が正確です。
論文 参考訳(メタデータ) (2021-04-16T23:09:11Z) - Are We Ready For Learned Cardinality Estimation? [6.703418426908341]
学習したモデルは従来の手法よりも確かに正確であるが、高いトレーニングと推論コストに悩まされることが多い。
次に、これらの学習モデルが動的環境(つまり頻繁なデータ更新)に準備ができているかどうかを調べる。
以上の結果から,学習手法の性能は相関,歪度,ドメインサイズの変化に大きく影響することが示された。
論文 参考訳(メタデータ) (2020-12-12T06:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。