論文の概要: Is Supervised Syntactic Parsing Beneficial for Language Understanding?
An Empirical Investigation
- arxiv url: http://arxiv.org/abs/2008.06788v2
- Date: Wed, 28 Apr 2021 12:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 21:03:25.836063
- Title: Is Supervised Syntactic Parsing Beneficial for Language Understanding?
An Empirical Investigation
- Title(参考訳): 教師付き構文解析は言語理解に有用か?
実証的な調査
- Authors: Goran Glava\v{s} and Ivan Vuli\'c
- Abstract要約: 従来のNLPは、高レベルセマンティック言語理解(LU)の成功に必要な構文解析を長い間保持(教師付き)してきた。
近年のエンドツーエンドニューラルネットワークの出現、言語モデリング(LM)による自己監視、および幅広いLUタスクにおける成功は、この信念に疑問を投げかけている。
本研究では,LM-Pretrained Transformer Network の文脈における意味的LUに対する教師あり構文解析の有用性を実証的に検討する。
- 参考スコア(独自算出の注目度): 71.70562795158625
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Traditional NLP has long held (supervised) syntactic parsing necessary for
successful higher-level semantic language understanding (LU). The recent advent
of end-to-end neural models, self-supervised via language modeling (LM), and
their success on a wide range of LU tasks, however, questions this belief. In
this work, we empirically investigate the usefulness of supervised parsing for
semantic LU in the context of LM-pretrained transformer networks. Relying on
the established fine-tuning paradigm, we first couple a pretrained transformer
with a biaffine parsing head, aiming to infuse explicit syntactic knowledge
from Universal Dependencies treebanks into the transformer. We then fine-tune
the model for LU tasks and measure the effect of the intermediate parsing
training (IPT) on downstream LU task performance. Results from both monolingual
English and zero-shot language transfer experiments (with intermediate
target-language parsing) show that explicit formalized syntax, injected into
transformers through IPT, has very limited and inconsistent effect on
downstream LU performance. Our results, coupled with our analysis of
transformers' representation spaces before and after intermediate parsing, make
a significant step towards providing answers to an essential question: how
(un)availing is supervised parsing for high-level semantic natural language
understanding in the era of large neural models?
- Abstract(参考訳): 従来のNLPは、高レベルセマンティック言語理解(LU)の成功に必要な構文解析(英語版)を長年保持してきた。
近年のエンドツーエンドニューラルネットワークの出現は、言語モデリング(LM)による自己教師付きであり、幅広いLUタスクにおける成功は、この信念に疑問を呈している。
本研究では,LM-Pretrained Transformer Network の文脈における意味的LUに対する教師あり構文解析の有用性を実証的に検討する。
確立された微調整パラダイムに基づき,まず,分岐解析ヘッドと事前学習したトランスフォーマーを結合し,Universal Dependenciesツリーバンクからの明示的な構文知識をトランスフォーマーに注入する。
次に、LUタスクのモデルを微調整し、下流LUタスク性能に対する中間解析訓練(IPT)の効果を測定する。
単言語英語およびゼロショット言語伝達実験(中間目的言語構文解析)の結果、iptを介してトランスフォーマーに注入される明示的な形式化構文は、下流のlu性能に非常に限定的かつ一貫性のない効果を持つことがわかった。
私たちの結果は,中間解析前後におけるトランスフォーマーの表現空間の分析と相まって,本質的な問いへの答えを提供する上で重要な一歩を踏み出します。
関連論文リスト
- TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Deep Natural Language Feature Learning for Interpretable Prediction [1.6114012813668932]
本稿では,メインの複雑なタスクを仲介しやすいサブタスクの集合に分解する手法を提案する。
本手法では,これらの質問に対する回答からなるベクトルで各例を表現できる。
我々は,学生のオープンエンド数学試験に対する回答の不整合性の検出と,気候変動と農業学に関する科学的論文の体系的な文献レビューのための要約のスクリーニングという,2つのまったく異なるタスクにこの手法を適用した。
論文 参考訳(メタデータ) (2023-11-09T21:43:27Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - The Interpreter Understands Your Meaning: End-to-end Spoken Language
Understanding Aided by Speech Translation [13.352795145385645]
音声翻訳(ST)は、エンドツーエンドの音声言語理解のために、音声モデルを事前訓練する良い方法である。
我々は,本モデルが単言語および多言語意図分類に基づくベースラインよりも高い性能を達成することを示す。
また、音声要約のための新しいベンチマークデータセットを作成し、低リソース/ゼロショットを英語からフランス語またはスペイン語に転送する。
論文 参考訳(メタデータ) (2023-05-16T17:53:03Z) - Beyond Distributional Hypothesis: Let Language Models Learn Meaning-Text
Correspondence [45.9949173746044]
大規模事前学習言語モデル (PLM) が論理否定特性 (LNP) を満たさないことを示す。
そこで本研究では,意味テキスト対応を直接学習するための新しい中間訓練課題である「意味マッチング」を提案する。
このタスクにより、PLMは語彙意味情報を学習することができる。
論文 参考訳(メタデータ) (2022-05-08T08:37:36Z) - SML: a new Semantic Embedding Alignment Transformer for efficient
cross-lingual Natural Language Inference [71.57324258813674]
トランスフォーマーが質問応答、自然言語推論(NLI)、要約といった様々なタスクを精度良く実行できることは、現在この種のタスクに対処するための最良のパラダイムの1つとしてランク付けすることができる。
nliは、複雑な文を理解するための知識が必要であり、仮説と前提の関係を確立するため、これらのアーキテクチャをテストする最良のシナリオの1つである。
本稿では,自然言語推論のための多言語組込みを効率的にアライメントするための新しいアーキテクチャ siamese multilingual transformer を提案する。
論文 参考訳(メタデータ) (2021-03-17T13:23:53Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Adapting Pretrained Transformer to Lattices for Spoken Language
Understanding [39.50831917042577]
ASR(Automatic Speech Recognitionr)が生成した1-best結果とは対照的に格子の符号化により,音声言語理解(SLU)の性能が向上することが示されている。
本稿では,事前学習したトランスフォーマーを格子入力に適用し,音声言語に特化して理解タスクを実行することを目的とする。
論文 参考訳(メタデータ) (2020-11-02T07:14:34Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。