論文の概要: Visually Analyzing Contextualized Embeddings
- arxiv url: http://arxiv.org/abs/2009.02554v1
- Date: Sat, 5 Sep 2020 15:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 20:59:53.236570
- Title: Visually Analyzing Contextualized Embeddings
- Title(参考訳): コンテキスト化された埋め込みを視覚的に分析する
- Authors: Matthew Berger
- Abstract要約: 本稿では,ディープニューラルネットワークに基づく言語モデルによって生成された文脈的埋め込みを視覚的に解析する手法を提案する。
我々のアプローチは自然言語処理のための言語探索から着想を得ており、タスクは言語構造のための言語モデルを探索するために設計されている。
- 参考スコア(独自算出の注目度): 2.802183323381949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we introduce a method for visually analyzing contextualized
embeddings produced by deep neural network-based language models. Our approach
is inspired by linguistic probes for natural language processing, where tasks
are designed to probe language models for linguistic structure, such as
parts-of-speech and named entities. These approaches are largely confirmatory,
however, only enabling a user to test for information known a priori. In this
work, we eschew supervised probing tasks, and advocate for unsupervised probes,
coupled with visual exploration techniques, to assess what is learned by
language models. Specifically, we cluster contextualized embeddings produced
from a large text corpus, and introduce a visualization design based on this
clustering and textual structure - cluster co-occurrences, cluster spans, and
cluster-word membership - to help elicit the functionality of, and relationship
between, individual clusters. User feedback highlights the benefits of our
design in discovering different types of linguistic structures.
- Abstract(参考訳): 本稿では,ディープニューラルネットワークを用いた言語モデルにより生成された文脈的埋め込みを視覚的に解析する手法を提案する。
我々のアプローチは自然言語処理のための言語探索にインスパイアされており、タスクは音声の一部や名前のエンティティといった言語構造のための言語モデルを探索するために設計されている。
しかし、これらのアプローチはおおむね確実であり、ユーザが事前情報をテストすることしかできない。
本研究では,言語モデルによって学習されるものを評価するために,探索タスクを監督し,教師なしプローブと視覚探索手法を併用して提唱する。
具体的には、大規模なテキストコーパスから生成されたコンテキスト化された埋め込みをクラスタ化し、クラスタ共起、クラスタスパン、クラスタワードメンバシップといったこのクラスタリングとテキスト構造に基づく視覚化設計を導入し、個々のクラスタの機能と関連性を解明します。
ユーザからのフィードバックは、異なるタイプの言語構造の発見におけるデザインの利点を強調します。
関連論文リスト
- Feature Interactions Reveal Linguistic Structure in Language Models [2.0178765779788495]
本研究では,ポストホック解釈における特徴帰属手法の文脈における特徴的相互作用について検討した。
私たちは、正規言語分類タスクで完璧にモデルをトレーニングする灰色のボックスの方法論を開発します。
特定の構成下では、いくつかの手法が実際にモデルが獲得した文法規則を明らかにすることができることを示す。
論文 参考訳(メタデータ) (2023-06-21T11:24:41Z) - Topics as Entity Clusters: Entity-based Topics from Large Language Models and Graph Neural Networks [0.6486052012623045]
本稿では,エンティティのバイモーダルベクトル表現を用いたトピッククラスタリング手法を提案する。
我々のアプローチは、最先端のモデルと比較してエンティティを扱うのに適している。
論文 参考訳(メタデータ) (2023-01-06T10:54:54Z) - Corpus-Guided Contrast Sets for Morphosyntactic Feature Detection in
Low-Resource English Varieties [3.3536302616846734]
コーパス誘導編集による効率的なコントラストセットの生成とフィルタリングを行う。
我々は、インド英語とアフリカ系アメリカ人の英語の特徴検出を改善し、言語研究をいかに支援できるかを実証し、他の研究者が使用するための微調整されたモデルをリリースすることを示した。
論文 参考訳(メタデータ) (2022-09-15T21:19:31Z) - Probing via Prompting [71.7904179689271]
本稿では,探索をプロンプトタスクとして定式化することで,新しいモデルフリーな探索手法を提案する。
我々は5つの探索課題について実験を行い、我々のアプローチが診断プローブよりも情報抽出に優れていることを示す。
次に,その特性に不可欠な頭部を除去し,言語モデリングにおけるモデルの性能を評価することにより,事前学習のための特定の言語特性の有用性を検討する。
論文 参考訳(メタデータ) (2022-07-04T22:14:40Z) - A Knowledge-Enhanced Adversarial Model for Cross-lingual Structured
Sentiment Analysis [31.05169054736711]
言語間構造的感情分析タスクは、ソース言語からターゲット言語へ知識を伝達することを目的としている。
本稿では,暗黙的分散と明示的構造的知識を両立させた知識強化逆数モデル(textttKEAM)を提案する。
我々は5つのデータセットの実験を行い、textttKEAMと教師なしおよび教師なしの両方の手法を比較した。
論文 参考訳(メタデータ) (2022-05-31T03:07:51Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - DeepStruct: Pretraining of Language Models for Structure Prediction [64.84144849119554]
テキストから構造を生成するために,タスクに依存しないコーパスの集合上で言語モデルを事前訓練する。
我々の構造事前学習は、モデルが構造タスクについて持っている学習知識のゼロショット転送を可能にする。
10Bパラメータ言語モデルがほとんどのタスクに非自明に転送し、28のデータセットのうち21の最先端のパフォーマンスを得ることを示す。
論文 参考訳(メタデータ) (2022-05-21T00:58:22Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Vokenization: Improving Language Understanding with Contextualized,
Visual-Grounded Supervision [110.66085917826648]
我々は,言語トークンを関連画像に文脈的にマッピングすることで,言語のみのデータに対するマルチモーダルアライメントを補間する手法を開発した。
語彙化」は比較的小さな画像キャプションデータセットに基づいて訓練され、それを大規模言語コーパスのための語彙生成に適用する。
これらの文脈的に生成された語彙を用いて学習し、視覚的に制御された言語モデルにより、複数の純粋言語タスクにおいて、自己教師による代替よりも一貫した改善が示される。
論文 参考訳(メタデータ) (2020-10-14T02:11:51Z) - Probing Contextual Language Models for Common Ground with Visual
Representations [76.05769268286038]
我々は、マッチングと非マッチングの視覚表現を区別する上で、テキストのみの表現がいかに効果的かを評価するための探索モデルを設計する。
以上の結果から,言語表現だけでは,適切な対象カテゴリから画像パッチを検索する強力な信号が得られることがわかった。
視覚的に接地された言語モデルは、例えば検索においてテキストのみの言語モデルよりわずかに優れているが、人間よりもはるかに低い。
論文 参考訳(メタデータ) (2020-05-01T21:28:28Z) - From text saliency to linguistic objects: learning linguistic
interpretable markers with a multi-channels convolutional architecture [2.064612766965483]
本稿では,分類プロセスを利用したテキストから解釈可能な言語オブジェクトを抽出するために,実装されたCNNの隠れ層を検査する手法を提案する。
我々は、英語とフランス語の2つの異なる言語からのコーパスに対するアプローチの効率を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-07T10:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。