論文の概要: Discovering Latent Concepts Learned in BERT
- arxiv url: http://arxiv.org/abs/2205.07237v1
- Date: Sun, 15 May 2022 09:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 15:49:10.284153
- Title: Discovering Latent Concepts Learned in BERT
- Title(参考訳): BERTで学んだ潜在概念の発見
- Authors: Fahim Dalvi, Abdul Rafae Khan, Firoj Alam, Nadir Durrani, Jia Xu,
Hassan Sajjad
- Abstract要約: 事前学習されたBERTモデルに潜伏概念が存在するかを検討する。
また、174のコンセプトラベルと1Mのアノテーション付きインスタンスからなる新しいBERT ConceptNetデータセット(BCN)もリリースした。
- 参考スコア(独自算出の注目度): 21.760620298330235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A large number of studies that analyze deep neural network models and their
ability to encode various linguistic and non-linguistic concepts provide an
interpretation of the inner mechanics of these models. The scope of the
analyses is limited to pre-defined concepts that reinforce the traditional
linguistic knowledge and do not reflect on how novel concepts are learned by
the model. We address this limitation by discovering and analyzing latent
concepts learned in neural network models in an unsupervised fashion and
provide interpretations from the model's perspective. In this work, we study:
i) what latent concepts exist in the pre-trained BERT model, ii) how the
discovered latent concepts align or diverge from classical linguistic hierarchy
and iii) how the latent concepts evolve across layers. Our findings show: i) a
model learns novel concepts (e.g. animal categories and demographic groups),
which do not strictly adhere to any pre-defined categorization (e.g. POS,
semantic tags), ii) several latent concepts are based on multiple properties
which may include semantics, syntax, and morphology, iii) the lower layers in
the model dominate in learning shallow lexical concepts while the higher layers
learn semantic relations and iv) the discovered latent concepts highlight
potential biases learned in the model. We also release a novel BERT ConceptNet
dataset (BCN) consisting of 174 concept labels and 1M annotated instances.
- Abstract(参考訳): ディープニューラルネットワークモデルと様々な言語的および非言語的概念を符号化する能力を分析する多くの研究は、これらのモデルの内部力学の解釈を提供する。
分析の範囲は、伝統的な言語知識を強化し、モデルによって新しい概念がどのように学習されるかを反映しない事前定義された概念に限られる。
我々は、ニューラルネットワークモデルで学んだ潜在概念を教師なしの方法で発見・分析し、モデルの観点から解釈を提供することにより、この制限に対処する。
本研究では,
一 事前訓練されたBERTモデルに潜伏概念が存在すること。
二 発見済みの潜在概念が、古典的言語階層とどのように連携し、又は分岐するか。
三 潜在概念が層にまたがってどのように進化するか。
私たちの発見は
一 事前定義された分類(例えば、pos、意味タグ)を厳密に遵守しない新しい概念(動物分類及び人口統計群)を学ぶこと。
二 複数の潜在概念は、意味論、構文、形態学を含む複数の性質に基づいている。
三 モデルの下位層が浅い語彙概念の学習において支配的であり、上位層が意味関係を学習している間、及び
iv) 発見された潜在概念は、モデルで学んだ潜在的なバイアスを強調します。
また、174のコンセプトラベルと1Mのアノテーション付きインスタンスからなる新しいBERT ConceptNetデータセット(BCN)もリリースした。
関連論文リスト
- Restyling Unsupervised Concept Based Interpretable Networks with Generative Models [14.604305230535026]
本稿では,事前学習された生成モデルの潜在空間に概念特徴をマッピングすることに依存する新しい手法を提案する。
本手法の有効性を,解釈可能な予測ネットワークの精度,再現性,学習概念の忠実性,一貫性の観点から定量的に検証した。
論文 参考訳(メタデータ) (2024-07-01T14:39:41Z) - A Concept-Based Explainability Framework for Large Multimodal Models [52.37626977572413]
本稿では,トークン表現に適用した辞書学習に基づくアプローチを提案する。
これらの概念は、視覚とテキストの両方に意味論的に根ざしていることを示す。
抽出したマルチモーダル概念は,テストサンプルの表現の解釈に有用であることを示す。
論文 参考訳(メタデータ) (2024-06-12T10:48:53Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Hierarchical Semantic Tree Concept Whitening for Interpretable Image
Classification [19.306487616731765]
ポストホック分析は、モデルに自然に存在するパターンやルールのみを発見することができる。
我々は、隠された層における人間の理解可能な概念の表現を変えるために、積極的に知識を注入する。
本手法は,モデル分類性能に悪影響を及ぼすことなく,セマンティックな概念の絡み合いを良くし,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2023-07-10T04:54:05Z) - ConceptX: A Framework for Latent Concept Analysis [21.760620298330235]
本稿では,言語モデル(pLM)における潜在表現空間の解釈と注釈付けを行うための,ループ型ヒューマン・イン・ザ・ループ・フレームワークであるConceptXを提案する。
我々は、教師なしの手法を用いて、これらのモデルで学んだ概念を発見し、人間が概念の説明を生成するためのグラフィカルインターフェースを実現する。
論文 参考訳(メタデータ) (2022-11-12T11:31:09Z) - Analyzing Encoded Concepts in Transformer Language Models [21.76062029833023]
ConceptXは、事前訓練された言語モデル内で学習された表現において、潜伏概念がどのように符号化されるかを分析する。
クラスタリングを使用して、符号化された概念を発見し、人間の定義した概念の大規模なセットと整合してそれらを説明する。
論文 参考訳(メタデータ) (2022-06-27T13:32:10Z) - Learnable Visual Words for Interpretable Image Recognition [70.85686267987744]
モデル予測動作を2つの新しいモジュールで解釈するLearable Visual Words (LVW)を提案する。
意味的な視覚的単語学習は、カテゴリ固有の制約を緩和し、異なるカテゴリ間で共有される一般的な視覚的単語を可能にする。
6つの視覚的ベンチマーク実験により,提案したLVWの精度とモデル解釈における優れた効果が示された。
論文 参考訳(メタデータ) (2022-05-22T03:24:45Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。