論文の概要: Probing Neural Language Models for Human Tacit Assumptions
- arxiv url: http://arxiv.org/abs/2004.04877v2
- Date: Tue, 16 Jun 2020 15:55:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:54:24.796135
- Title: Probing Neural Language Models for Human Tacit Assumptions
- Title(参考訳): ヒトのtacit仮定のための言語モデル探索
- Authors: Nathaniel Weir, Adam Poliak, Benjamin Van Durme
- Abstract要約: 人間はステレオタイプ的暗黙の仮定(STA)または一般的な概念についての命題的信念を持っている。
大規模テキストコーパスキャプチャSTAで訓練された最近のニューラルネットワーク言語モデルを評価するために,単語予測プロンプトの診断セットを構築した。
- 参考スコア(独自算出の注目度): 36.63841251126978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans carry stereotypic tacit assumptions (STAs) (Prince, 1978), or
propositional beliefs about generic concepts. Such associations are crucial for
understanding natural language. We construct a diagnostic set of word
prediction prompts to evaluate whether recent neural contextualized language
models trained on large text corpora capture STAs. Our prompts are based on
human responses in a psychological study of conceptual associations. We find
models to be profoundly effective at retrieving concepts given associated
properties. Our results demonstrate empirical evidence that stereotypic
conceptual representations are captured in neural models derived from
semi-supervised linguistic exposure.
- Abstract(参考訳): 人間は、ステレオタイプなtacit仮定(stas)(プリンス、1978年)、またはジェネリック概念に関する命題的信念を持つ。
このような関連は自然言語を理解する上で重要である。
大規模テキストコーパスキャプチャSTAで訓練された最近のニューラルネットワーク言語モデルを評価するために,単語予測プロンプトの診断セットを構築した。
我々のプロンプトは、概念関係の心理学的研究における人間の反応に基づいている。
モデルは、関連する特性が与えられた概念を検索するのに非常に効果的である。
本研究は, 半教師付き言語暴露から得られる神経モデルにおいて, ステレオタイプ概念表現が捉えられるという実証的証拠を示す。
関連論文リスト
- Large Language Models as Neurolinguistic Subjects: Identifying Internal Representations for Form and Meaning [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
伝統的な精神言語学的評価は、しばしばLSMの真の言語能力を誤って表現する統計バイアスを反映している。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Human-like Few-Shot Learning via Bayesian Reasoning over Natural
Language [7.11993673836973]
人間は幅広い概念を効率的に学習することができる。
我々はその意味で人間らしくなろうとする帰納的学習のモデルを導入する。
論文 参考訳(メタデータ) (2023-06-05T11:46:45Z) - Language Models are Bounded Pragmatic Speakers: Understanding RLHF from
a Bayesian Cognitive Modeling Perspective [2.8282906214258805]
本稿では,有界プラグマティック話者と呼ばれる確率論的認知モデルを定式化する。
人間のフィードバックからの強化学習によって微調整された大きな言語モデルは、高速でスローなモデルに似た思考モデルを具現化していることを示す。
論文 参考訳(メタデータ) (2023-05-28T16:04:48Z) - Localization vs. Semantics: Visual Representations in Unimodal and
Multimodal Models [57.08925810659545]
既存の視覚・言語モデルと視覚のみのモデルにおける視覚表現の比較分析を行う。
我々の経験的観察は、視覚・言語モデルがラベル予測タスクに優れていることを示唆している。
我々の研究は、視覚学習における言語の役割に光を当て、様々な事前学習モデルの実証的なガイドとして機能することを願っている。
論文 参考訳(メタデータ) (2022-12-01T05:00:18Z) - ConceptX: A Framework for Latent Concept Analysis [21.760620298330235]
本稿では,言語モデル(pLM)における潜在表現空間の解釈と注釈付けを行うための,ループ型ヒューマン・イン・ザ・ループ・フレームワークであるConceptXを提案する。
我々は、教師なしの手法を用いて、これらのモデルで学んだ概念を発見し、人間が概念の説明を生成するためのグラフィカルインターフェースを実現する。
論文 参考訳(メタデータ) (2022-11-12T11:31:09Z) - Learnable Visual Words for Interpretable Image Recognition [70.85686267987744]
モデル予測動作を2つの新しいモジュールで解釈するLearable Visual Words (LVW)を提案する。
意味的な視覚的単語学習は、カテゴリ固有の制約を緩和し、異なるカテゴリ間で共有される一般的な視覚的単語を可能にする。
6つの視覚的ベンチマーク実験により,提案したLVWの精度とモデル解釈における優れた効果が示された。
論文 参考訳(メタデータ) (2022-05-22T03:24:45Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。