論文の概要: Linguistic Profiling of a Neural Language Model
- arxiv url: http://arxiv.org/abs/2010.01869v3
- Date: Sat, 7 Nov 2020 17:43:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 20:01:41.149319
- Title: Linguistic Profiling of a Neural Language Model
- Title(参考訳): ニューラル言語モデルの言語学的プロファイリング
- Authors: Alessio Miaschi, Dominique Brunato, Felice Dell'Orletta, Giulia
Venturi
- Abstract要約: 本研究では,ニューラルネットワークモデル(NLM)が微調整前後に学習した言語知識について検討する。
BERTは、幅広い言語特性を符号化できるが、特定の下流タスクで訓練すると、その情報を失う傾向にある。
- 参考スコア(独自算出の注目度): 1.0552465253379135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we investigate the linguistic knowledge learned by a Neural
Language Model (NLM) before and after a fine-tuning process and how this
knowledge affects its predictions during several classification problems. We
use a wide set of probing tasks, each of which corresponds to a distinct
sentence-level feature extracted from different levels of linguistic
annotation. We show that BERT is able to encode a wide range of linguistic
characteristics, but it tends to lose this information when trained on specific
downstream tasks. We also find that BERT's capacity to encode different kind of
linguistic properties has a positive influence on its predictions: the more it
stores readable linguistic information of a sentence, the higher will be its
capacity of predicting the expected label assigned to that sentence.
- Abstract(参考訳): 本稿では,ニューラルネットワークモデル(NLM)による微調整前後の言語知識と,その知識がいくつかの分類問題における予測に与える影響について検討する。
言語アノテーションの異なるレベルから抽出された異なる文レベルの特徴に対応する,幅広い探索タスクを使用する。
BERTは、幅広い言語特性を符号化できるが、特定の下流タスクで訓練すると、その情報を失う傾向がある。
また、bertの異なる種類の言語特性をエンコードする能力は、その予測に肯定的な影響を与えている: 文章の読みやすい言語情報を保存すればするほど、その文に割り当てられたラベルを予測する能力が高くなる。
関連論文リスト
- Improving Multilingual Neural Machine Translation by Utilizing Semantic and Linguistic Features [18.76505158652759]
複数の言語間の意味的特徴と言語的特徴を利用して多言語翻訳を強化することを提案する。
エンコーダ側では,意味的特徴と言語的特徴を両立させることにより,エンコーダ表現を整合させる非係合学習タスクを導入する。
デコーダ側では、言語エンコーダを利用して低レベル言語機能を統合し、ターゲット言語生成を支援する。
論文 参考訳(メタデータ) (2024-08-02T17:10:12Z) - Representing Affect Information in Word Embeddings [5.378735006566249]
大規模ニューラルネットワークで事前学習した単語の埋め込みにおいて、単語の感情の意味がコード化されているかどうかを検討した。
埋め込みは静的あるいは文脈的に変化し、事前学習と微調整の段階で特定の情報にどの程度影響するかが優先された。
論文 参考訳(メタデータ) (2022-09-21T18:16:33Z) - Knowledge Graph Fusion for Language Model Fine-tuning [0.0]
BERTの微調整段階における知識導入のメリットについて検討する。
既存のK-BERTモデルは、知識グラフから三つ子で文を豊かにするものであり、英語に適応している。
K-BERTに変更された英語は、他の単語ベースの言語にも拡張されている。
論文 参考訳(メタデータ) (2022-06-21T08:06:22Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - A Massively Multilingual Analysis of Cross-linguality in Shared
Embedding Space [61.18554842370824]
言語間モデルでは、多くの異なる言語に対する表現は同じ空間に存在している。
我々は,bitext検索性能の形式で,言語間アライメントのタスクベース尺度を計算した。
我々はこれらのアライメント指標の潜在的な予測因子として言語的、準言語的、および訓練関連の特徴について検討する。
論文 参考訳(メタデータ) (2021-09-13T21:05:37Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Deep Subjecthood: Higher-Order Grammatical Features in Multilingual BERT [7.057643880514415]
MBERT(Multilingual BERT)が文法をエンコードするには,複数言語の埋め込み空間にまたがるモルフォシンタクティックアライメントの高次文法的特徴がどのように現れるかを検討する。
論文 参考訳(メタデータ) (2021-01-26T19:21:59Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z) - Linguistic Typology Features from Text: Inferring the Sparse Features of
World Atlas of Language Structures [73.06435180872293]
我々は、バイト埋め込みと畳み込み層に基づく繰り返しニューラルネットワーク予測器を構築する。
様々な言語型の特徴を確実に予測できることを示す。
論文 参考訳(メタデータ) (2020-04-30T21:00:53Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。