論文の概要: A Latent-Variable Model for Intrinsic Probing
- arxiv url: http://arxiv.org/abs/2201.08214v1
- Date: Thu, 20 Jan 2022 15:01:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 13:53:36.334265
- Title: A Latent-Variable Model for Intrinsic Probing
- Title(参考訳): 固有探索のための潜在変数モデル
- Authors: Karolina Sta\'nczak, Lucas Torroba Hennigen, Adina Williams, Ryan
Cotterell, Isabelle Augenstein
- Abstract要約: 固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
- 参考スコア(独自算出の注目度): 94.61336186402615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of pre-trained contextualized representations has prompted
researchers to analyze them for the presence of linguistic information. Indeed,
it is natural to assume that these pre-trained representations do encode some
level of linguistic knowledge as they have brought about large empirical
improvements on a wide variety of NLP tasks, which suggests they are learning
true linguistic generalization. In this work, we focus on intrinsic probing, an
analysis technique where the goal is not only to identify whether a
representation encodes a linguistic attribute, but also to pinpoint where this
attribute is encoded. We propose a novel latent-variable formulation for
constructing intrinsic probes and derive a tractable variational approximation
to the log-likelihood. Our results show that our model is versatile and yields
tighter mutual information estimates than two intrinsic probes previously
proposed in the literature. Finally, we find empirical evidence that
pre-trained representations develop a cross-lingually entangled notion of
morphosyntax.
- Abstract(参考訳): 事前訓練された文脈表現の成功は、研究者に言語情報の存在を解析させるきっかけとなった。
実際、これらの事前学習された表現が、多種多様なNLPタスクに対して大規模な経験的改善をもたらしたため、ある程度の言語知識をエンコードしていると仮定するのは自然なことです。
本研究は,表現が言語属性をエンコードしているかどうかを識別するだけでなく,その属性がエンコードされている場所を特定することを目的とした分析手法である。
そこで本研究では,固有プローブ構築のための新しい潜在変数定式化法を提案する。
本研究の結果は,本研究で提案した2つの固有プローブよりも多種多様であり,相互情報推定の精度が高いことを示す。
最後に,事前学習された表現が言語交叉に絡み合ったモルフォシンタックス概念を発達させるという経験的証拠を見出す。
関連論文リスト
- On Robustness of Prompt-based Semantic Parsing with Large Pre-trained
Language Model: An Empirical Study on Codex [48.588772371355816]
本稿では,大規模なプロンプトベース言語モデルであるコーデックスの対角的ロバスト性に関する最初の実証的研究について述べる。
この結果から, 最先端の言語モデル(SOTA)は, 慎重に構築された敵の例に対して脆弱であることが示された。
論文 参考訳(メタデータ) (2023-01-30T13:21:00Z) - Probing via Prompting [71.7904179689271]
本稿では,探索をプロンプトタスクとして定式化することで,新しいモデルフリーな探索手法を提案する。
我々は5つの探索課題について実験を行い、我々のアプローチが診断プローブよりも情報抽出に優れていることを示す。
次に,その特性に不可欠な頭部を除去し,言語モデリングにおけるモデルの性能を評価することにより,事前学習のための特定の言語特性の有用性を検討する。
論文 参考訳(メタデータ) (2022-07-04T22:14:40Z) - Probing Linguistic Information For Logical Inference In Pre-trained
Language Models [2.4366811507669124]
本稿では,事前学習した言語モデル表現における論理推論のための言語情報探索手法を提案する。
i)事前学習された言語モデルは、推論のためにいくつかの種類の言語情報を符号化するが、弱符号化された情報もいくつか存在する。
シンボリック推論支援のためのセマンティックおよび背景知識基盤としての言語モデルの可能性を実証した。
論文 参考訳(メタデータ) (2021-12-03T07:19:42Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z) - The Rediscovery Hypothesis: Language Models Need to Meet Linguistics [8.293055016429863]
現代言語モデルの性能向上に言語知識が必須条件であるかどうかを検討する。
その結果, 言語構造を探索した場合, かなり圧縮されるが, 事前学習目的によく適合する言語モデルは, 良好なスコアを保っていることがわかった。
この結果は再発見仮説を支持し,本論文の第2の貢献である言語モデル目標と言語情報との関連性に関する情報論的枠組みを導出する。
論文 参考訳(メタデータ) (2021-03-02T15:57:39Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z) - Information-Theoretic Probing for Linguistic Structure [74.04862204427944]
本稿では,相互情報を推定するための情報理論による探索運用手法を提案する。
我々は,NLP研究でしばしば不足している10の型的多様言語について評価した。
論文 参考訳(メタデータ) (2020-04-07T01:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。