論文の概要: DirectProbe: Studying Representations without Classifiers
- arxiv url: http://arxiv.org/abs/2104.05904v1
- Date: Tue, 13 Apr 2021 02:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:35:16.685461
- Title: DirectProbe: Studying Representations without Classifiers
- Title(参考訳): DirectProbe: 分類なし表現の研究
- Authors: Yichu Zhou and Vivek Srikumar
- Abstract要約: DirectProbeは、タスクのバージョン空間の概念に基づいて表現の幾何学を研究します。
いくつかの言語的タスクと文脈的埋め込みの実験は、訓練された分類器がなくても、DirectProbeは埋め込み空間がラベルの表現方法に光を当てることができることを示している。
- 参考スコア(独自算出の注目度): 21.23284793831221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how linguistic structures are encoded in contextualized
embedding could help explain their impressive performance across NLP@. Existing
approaches for probing them usually call for training classifiers and use the
accuracy, mutual information, or complexity as a proxy for the representation's
goodness. In this work, we argue that doing so can be unreliable because
different representations may need different classifiers. We develop a
heuristic, DirectProbe, that directly studies the geometry of a representation
by building upon the notion of a version space for a task. Experiments with
several linguistic tasks and contextualized embeddings show that, even without
training classifiers, DirectProbe can shine light into how an embedding space
represents labels, and also anticipate classifier performance for the
representation.
- Abstract(参考訳): 言語構造がどのようにコンテクスト化された埋め込みにエンコードされているかを理解することは、NLP@でその印象的なパフォーマンスを説明するのに役立つだろう。
既存のアプローチでは、通常、分類器を訓練し、表現の良さの代理として正確性、相互情報、複雑さを使用する。
この研究において、異なる表現が異なる分類器を必要とする可能性があるため、そうすることは信頼できないと論じる。
我々は,タスクのバージョン空間の概念に基づいて表現の幾何学を直接研究する,ヒューリスティックなDirectProbeを開発する。
いくつかの言語的タスクと文脈的埋め込みの実験では、訓練された分類器がなくても、DirectProbeは埋め込み空間がラベルの表現方法に光を当てることができ、表現のための分類器のパフォーマンスも期待できる。
関連論文リスト
- Representation Of Lexical Stylistic Features In Language Models'
Embedding Space [28.60690854046176]
これらのスタイリスティックな概念のそれぞれに対して,少数のシードペアのみからベクトル表現を導出できることが示されている。
5つのデータセットで実験を行い、静的な埋め込みがこれらの特徴を単語やフレーズのレベルでより正確にエンコードすることを発見した。
単語レベルでの文脈化表現の低い性能は、ベクトル空間の異方性に起因する。
論文 参考訳(メタデータ) (2023-05-29T23:44:26Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - High-dimensional distributed semantic spaces for utterances [0.2907403645801429]
本稿では,発話とテキストレベルデータの高次元表現モデルについて述べる。
言語情報を表現する数学的原理と行動学的に妥当なアプローチに基づいている。
本論文は,固定次元の共通積分フレームワークにおいて,実装モデルが言語的特徴を広範囲に表すことができるかを示す。
論文 参考訳(メタデータ) (2021-04-01T12:09:47Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - Structured (De)composable Representations Trained with Neural Networks [21.198279941828112]
テンプレート表現は、クラス全体の特性をキャプチャするジェネリック表現を指す。
提案手法は、エンドツーエンドのディープラーニングを用いて、入力画像と離散ラベルから構造化および構成可能な表現を学習する。
表現には明確な構造があることを証明し、表現をクラスや環境を表す因子に分解する。
論文 参考訳(メタデータ) (2020-07-07T10:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。