論文の概要: An Empirical Revisiting of Linguistic Knowledge Fusion in Language
Understanding Tasks
- arxiv url: http://arxiv.org/abs/2210.13002v1
- Date: Mon, 24 Oct 2022 07:47:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:43:38.765270
- Title: An Empirical Revisiting of Linguistic Knowledge Fusion in Language
Understanding Tasks
- Title(参考訳): 言語理解課題における言語知識融合の実証的再考
- Authors: Changlong Yu, Tianyi Xiao, Lingpeng Kong, Yangqiu Song and Wilfred Ng
- Abstract要約: 構文的・意味的知識を持つ言語モデルの構築は,多くの言語理解タスクにおいて改善されている。
GLUEベンチマークにおいて,解析されたグラフや木を簡単なタスクに置き換える実験的検討を行った。
このことは、利得は明示的な言語的先行によるものではなく、融合層によってもたらされるより機能的な相互作用によるものであることを明らかにしている。
- 参考スコア(独自算出の注目度): 33.765874588342285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Though linguistic knowledge emerges during large-scale language model
pretraining, recent work attempt to explicitly incorporate human-defined
linguistic priors into task-specific fine-tuning. Infusing language models with
syntactic or semantic knowledge from parsers has shown improvements on many
language understanding tasks. To further investigate the effectiveness of
structural linguistic priors, we conduct empirical study of replacing parsed
graphs or trees with trivial ones (rarely carrying linguistic knowledge e.g.,
balanced tree) for tasks in the GLUE benchmark. Encoding with trivial graphs
achieves competitive or even better performance in fully-supervised and
few-shot settings. It reveals that the gains might not be significantly
attributed to explicit linguistic priors but rather to more feature
interactions brought by fusion layers. Hence we call for attention to using
trivial graphs as necessary baselines to design advanced knowledge fusion
methods in the future.
- Abstract(参考訳): 大規模言語モデルの事前訓練中に言語知識が出現するが、近年の研究は、人間の定義した言語的先行概念をタスク固有の微調整に明示的に組み込もうと試みている。
構文的あるいは意味的な知識を持つ言語モデルをパーサから注入すると、多くの言語理解タスクが改善される。
構造的言語学的先行性の有効性をさらに検討するため,GLUEベンチマークの課題に対して,解析されたグラフや木を簡単なもの(例:バランス木)に置き換える実験的検討を行った。
自明なグラフによるエンコーディングは、完全な教師付きおよび少数ショット設定で競争力またはさらに優れたパフォーマンスを達成する。
この成果は、明示的な言語的優先ではなく、融合層によってもたらされるより多くの機能的相互作用に起因する可能性がある。
したがって、将来高度な知識融合法を設計するために必要なベースラインとして自明なグラフを使うことに注意を向ける。
関連論文リスト
- Subspace Chronicles: How Linguistic Information Emerges, Shifts and
Interacts during Language Model Training [56.74440457571821]
我々は、構文、意味論、推論を含むタスクを、200万の事前学習ステップと5つのシードで分析する。
タスクや時間にまたがる重要な学習フェーズを特定し、その間にサブスペースが出現し、情報を共有し、後に専門化するために混乱する。
この結果は,モデル解釈可能性,マルチタスク学習,限られたデータからの学習に影響を及ぼす。
論文 参考訳(メタデータ) (2023-10-25T09:09:55Z) - Tokenization Impacts Multilingual Language Modeling: Assessing
Vocabulary Allocation and Overlap Across Languages [3.716965622352967]
サブワードトークン化器で観測される語彙表現と語彙重複の質を評価するための新しい基準を提案する。
以上の結果から,言語間の語彙の重複は,特定の下流課題に支障を来す可能性があることが示唆された。
論文 参考訳(メタデータ) (2023-05-26T18:06:49Z) - A Linguistic Investigation of Machine Learning based Contradiction
Detection Models: An Empirical Analysis and Future Perspectives [0.34998703934432673]
本稿では,2つの自然言語推論データセットについて,その言語的特徴について分析する。
目標は、特に機械学習モデルを理解するのが難しい、構文的および意味的特性を特定することである。
論文 参考訳(メタデータ) (2022-10-19T10:06:03Z) - Knowledge Graph Fusion for Language Model Fine-tuning [0.0]
BERTの微調整段階における知識導入のメリットについて検討する。
既存のK-BERTモデルは、知識グラフから三つ子で文を豊かにするものであり、英語に適応している。
K-BERTに変更された英語は、他の単語ベースの言語にも拡張されている。
論文 参考訳(メタデータ) (2022-06-21T08:06:22Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - CoLAKE: Contextualized Language and Knowledge Embedding [81.90416952762803]
文脈型言語と知識埋め込み(CoLAKE)を提案する。
CoLAKEは、言語と知識の両方の文脈化された表現を、拡張された目的によって共同で学習する。
知識駆動タスク、知識探索タスク、言語理解タスクについて実験を行う。
論文 参考訳(メタデータ) (2020-10-01T11:39:32Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。