論文の概要: On the Evolution of Syntactic Information Encoded by BERT's
Contextualized Representations
- arxiv url: http://arxiv.org/abs/2101.11492v1
- Date: Wed, 27 Jan 2021 15:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 19:39:58.932152
- Title: On the Evolution of Syntactic Information Encoded by BERT's
Contextualized Representations
- Title(参考訳): BERTの文脈表現によるシンタクティック情報の進化について
- Authors: Laura Perez-Mayos, Roberto Carlini, Miguel Ballesteros, Leo Wanner
- Abstract要約: 本稿では,6つのタスクに対してBERTの微調整プロセスに沿って,組込み構文木の進化を解析する。
実験結果から, 符号化された情報は, タスクに応じて微調整プロセスに沿って, 忘れられ(PoSタグ付け), 強化された(依存度・隣接度解析) あるいは保存された(セマンティック関連タスク) 。
- 参考スコア(独自算出の注目度): 11.558645364193486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adaptation of pretrained language models to solve supervised tasks has
become a baseline in NLP, and many recent works have focused on studying how
linguistic information is encoded in the pretrained sentence representations.
Among other information, it has been shown that entire syntax trees are
implicitly embedded in the geometry of such models. As these models are often
fine-tuned, it becomes increasingly important to understand how the encoded
knowledge evolves along the fine-tuning. In this paper, we analyze the
evolution of the embedded syntax trees along the fine-tuning process of BERT
for six different tasks, covering all levels of the linguistic structure.
Experimental results show that the encoded syntactic information is forgotten
(PoS tagging), reinforced (dependency and constituency parsing) or preserved
(semantics-related tasks) in different ways along the fine-tuning process
depending on the task.
- Abstract(参考訳): 教師付きタスクを解くための事前訓練された言語モデルの適応は、NLPのベースラインとなり、近年の多くの研究は、事前訓練された文表現に言語情報がエンコードされる方法の研究に焦点が当てられている。
他の情報の中で、構文木全体がそのようなモデルの幾何学に暗黙的に埋め込まれていることが示されている。
これらのモデルはしばしば微調整されるため、微調整に沿ってエンコードされた知識がどのように進化するかを理解することがますます重要になる。
本論文では,6つのタスクに対するBERTの微調整プロセスに沿った組込み構文木の発展を解析し,言語構造の全レベルを網羅する。
実験結果から, 符号化された構文情報は, タスクに応じた微調整プロセスに沿って, 忘れられ(PoSタグ付け), 強化された(依存度・選挙区解析) あるいは保存された(セマンティック関連タスク) 。
関連論文リスト
- UniPSDA: Unsupervised Pseudo Semantic Data Augmentation for Zero-Shot Cross-Lingual Natural Language Understanding [31.272603877215733]
言語間の表現学習は、リソースに富んだデータからリソースに密着したデータへ知識を伝達し、異なる言語の意味理解能力を改善する。
言語間自然言語理解のためのunsupervised Pseudo Semantic Data Augmentation (UniPSDA) 機構を提案する。
論文 参考訳(メタデータ) (2024-06-24T07:27:01Z) - Injecting linguistic knowledge into BERT for Dialogue State Tracking [60.42231674887294]
本稿では,教師なしの枠組みを用いて言語知識を抽出する手法を提案する。
次に、この知識を用いて、対話状態追跡(DST)タスクにおけるBERTの性能と解釈可能性を高める。
このフレームワークを様々なDSTタスクでベンチマークし、精度の顕著な改善を観察する。
論文 参考訳(メタデータ) (2023-11-27T08:38:42Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - Unified BERT for Few-shot Natural Language Understanding [7.352338840651369]
本稿では,BERTフレームワークに基づく双方向言語理解モデルであるUBERTを提案する。
UBERTは、様々な側面から事前知識を符号化し、複数のNLUタスクにまたがる学習表現を均一に構築する。
実験によると、UBERTは7つのNLUタスク、14のデータセット、ほとんどショットやゼロショットの設定で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-24T06:10:53Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - KELM: Knowledge Enhanced Pre-Trained Language Representations with
Message Passing on Hierarchical Relational Graphs [26.557447199727758]
本稿では,微調整プロセスに基づく知識認識型言語モデルフレームワークを提案する。
我々のモデルは、KGからの世界知識をBERTのような既存の言語モデルに効率的に組み込むことができる。
論文 参考訳(メタデータ) (2021-09-09T12:39:17Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。