論文の概要: A Tale of a Probe and a Parser
- arxiv url: http://arxiv.org/abs/2005.01641v2
- Date: Tue, 12 May 2020 10:38:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:56:20.580912
- Title: A Tale of a Probe and a Parser
- Title(参考訳): プローブとパーサーの物語
- Authors: Rowan Hall Maudslay, Josef Valvoda, Tiago Pimentel, Adina Williams,
Ryan Cotterell
- Abstract要約: 言語のニューラルモデルにエンコードされている言語情報の計測は、NLPで人気が高まっている。
研究者は、他のモデルの出力から言語構造を抽出するために設計された教師付きモデル"プローブ"をトレーニングすることで、この企業にアプローチする。
そのようなプローブの1つは、構文情報が文脈化された単語表現でエンコードされる範囲を定量化するために設計された構造プローブである。
- 参考スコア(独自算出の注目度): 74.14046092181947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measuring what linguistic information is encoded in neural models of language
has become popular in NLP. Researchers approach this enterprise by training
"probes" - supervised models designed to extract linguistic structure from
another model's output. One such probe is the structural probe (Hewitt and
Manning, 2019), designed to quantify the extent to which syntactic information
is encoded in contextualised word representations. The structural probe has a
novel design, unattested in the parsing literature, the precise benefit of
which is not immediately obvious. To explore whether syntactic probes would do
better to make use of existing techniques, we compare the structural probe to a
more traditional parser with an identical lightweight parameterisation. The
parser outperforms structural probe on UUAS in seven of nine analysed
languages, often by a substantial amount (e.g. by 11.1 points in English).
Under a second less common metric, however, there is the opposite trend - the
structural probe outperforms the parser. This begs the question: which metric
should we prefer?
- Abstract(参考訳): 言語のニューラルモデルで符号化されている言語情報を測定することは、NLPで人気がある。
研究者は、他のモデルの出力から言語構造を抽出するために設計された教師付きモデル"プローブ"をトレーニングすることで、この企業にアプローチする。
そのようなプローブの1つは構造プローブ(Hewitt and Manning, 2019)で、構文情報が文脈化された単語表現でエンコードされる範囲を定量化するために設計された。
構造プローブは、解析文学では証明されていない新しい設計であり、正確な利点はすぐには明らかではない。
構文プローブが既存の技術を利用するのに効果的かどうかを調べるため、構造プローブをより伝統的なパーサと同一の軽量パラメータ化と比較する。
パーサーは、9つの分析された言語のうち7つのUASの構造的プローブ(例えば、英語で11.1ポイント)を上回っている。
しかし、第2のあまり一般的でない計量では、構造的プローブがパーサーを上回るという逆の傾向がある。
どちらが望ましいのか、という疑問が浮かび上がっています。
関連論文リスト
- Syntactic Language Change in English and German: Metrics, Parsers, and Convergences [56.47832275431858]
本論文は,過去160年間の議会討論のコーパスを用いて,英語とドイツ語の統語的言語変化のダイアクロニックな傾向を考察する。
私たちは、広く使われているStanford Coreと、新しい4つの選択肢を含む5つの依存関係をベースとしています。
文長分布の尾部では,構文的尺度の変化が頻繁であることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-18T11:46:16Z) - Deep Lexical Hypothesis: Identifying personality structure in natural
language [0.30458514384586394]
言語モデルから形容詞類似性を抽出する手法を提案する。
この方法で生成した相関構造は、ソーシエとゴールドバーグが報告した435項の自己および他値の相関構造と非常によく似ている。
特に、神経症と開放性は弱く、矛盾なく回復するだけである。
論文 参考訳(メタデータ) (2022-03-04T02:06:10Z) - Do Syntactic Probes Probe Syntax? Experiments with Jabberwocky Probing [45.834234634602566]
学習データにおける意味的手がかりは,構文的プローブが適切に構文を分離しないことを意味する。
私たちは、いくつかの人気のある言語モデルでプローブをトレーニングします。
論文 参考訳(メタデータ) (2021-06-04T15:46:39Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z) - Pareto Probing: Trading Off Accuracy for Complexity [87.09294772742737]
我々は,プローブの複雑性と性能の基本的なトレードオフを反映したプローブ計量について論じる。
係り受け解析による実験により,文脈表現と非文脈表現の統語的知識の幅広いギャップが明らかとなった。
論文 参考訳(メタデータ) (2020-10-05T17:27:31Z) - Information-Theoretic Probing for Linguistic Structure [74.04862204427944]
本稿では,相互情報を推定するための情報理論による探索運用手法を提案する。
我々は,NLP研究でしばしば不足している10の型的多様言語について評価した。
論文 参考訳(メタデータ) (2020-04-07T01:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。