論文の概要: Morph Call: Probing Morphosyntactic Content of Multilingual Transformers
- arxiv url: http://arxiv.org/abs/2104.12847v1
- Date: Mon, 26 Apr 2021 19:53:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 00:23:45.515476
- Title: Morph Call: Probing Morphosyntactic Content of Multilingual Transformers
- Title(参考訳): morph call : 多言語トランスフォーマーにおけるmorphosyntactic contentの探索
- Authors: Vladislav Mikhailov and Oleg Serikov and Ekaterina Artemova
- Abstract要約: Morph Callは、異なる形態を持つ4つのインド・ヨーロッパ語(英語、フランス語、ドイツ語、ロシア語)の46の探索タスクからなるスイートである。
我々は4つの多言語トランスのモルフォシンタクティックな内容を分析するために,ニューロン,層および表現レベルのイントロスペクション技術の組み合わせを用いる。
その結果, POSタグの微調整により, 探索性能が向上し, モデル間でのモルフォシンタクティック知識の分配方法が変化することが示唆された。
- 参考スコア(独自算出の注目度): 2.041108289731398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The outstanding performance of transformer-based language models on a great
variety of NLP and NLU tasks has stimulated interest in exploring their inner
workings. Recent research has focused primarily on higher-level and complex
linguistic phenomena such as syntax, semantics, world knowledge, and common
sense. The majority of the studies are anglocentric, and little remains known
regarding other languages, precisely their morphosyntactic properties. To this
end, our work presents Morph Call, a suite of 46 probing tasks for four
Indo-European languages of different morphology: English, French, German and
Russian. We propose a new type of probing task based on the detection of guided
sentence perturbations. We use a combination of neuron-, layer- and
representation-level introspection techniques to analyze the morphosyntactic
content of four multilingual transformers, including their less explored
distilled versions. Besides, we examine how fine-tuning for POS-tagging affects
the model knowledge. The results show that fine-tuning can improve and decrease
the probing performance and change how morphosyntactic knowledge is distributed
across the model. The code and data are publicly available, and we hope to fill
the gaps in the less studied aspect of transformers.
- Abstract(参考訳): NLPおよびNLUタスクにおけるトランスフォーマーベース言語モデルの卓越した性能は、内部動作の探索への関心を刺激している。
近年の研究は、文法、意味論、世界知識、常識といった高レベルで複雑な言語現象に焦点を当てている。
研究の大部分はアングロセントリックであり、他の言語についてはほとんど知られていない。
この目的のために、我々の研究はMorph Callという、異なる形態を持つ4つのインド・ヨーロッパ語(英語、フランス語、ドイツ語、ロシア語)に対する46の探索タスクスイートを提示した。
本稿では,誘導文摂動の検出に基づく新しいタイプの探索タスクを提案する。
我々は,4つの多言語トランスフォーマーのモルフォシンティクス内容を分析するために,ニューロン,レイヤ,表現レベルのイントロスペクション技術を組み合わせた。
さらに,posタグの微調整がモデル知識に与える影響についても検討する。
その結果, 微調整により探索性能が向上し, モデル全体にわたって形態素合成知識が分散されるかが変化することがわかった。
コードとデータは公開されており、トランスフォーマーのあまり研究されていない側面のギャップを埋めたいと考えています。
関連論文リスト
- Holmes: A Benchmark to Assess the Linguistic Competence of Language Models [59.627729608055006]
言語モデル(LM)の言語能力を評価するための新しいベンチマークであるHolmesを紹介する。
我々は、計算に基づく探索を用いて、異なる言語現象に関するLMの内部表現を調べる。
その結果,近年,他の認知能力からLMの言語能力を引き離す声が上がっている。
論文 参考訳(メタデータ) (2024-04-29T17:58:36Z) - Is neural language acquisition similar to natural? A chronological
probing study [0.0515648410037406]
本稿では,MultiBERTやT5といったトランスフォーマー英語モデルの時系列探索について述べる。
コーパスの学習過程において,モデルが学習した言語に関する情報を比較した。
その結果,1)訓練の初期段階に言語情報を取得すること,2)両言語モデルが様々な言語レベルから様々な特徴を捉える能力を示した。
論文 参考訳(メタデータ) (2022-07-01T17:24:11Z) - Same Neurons, Different Languages: Probing Morphosyntax in Multilingual
Pre-trained Models [84.86942006830772]
多言語事前学習モデルは文法に関する言語・ユニバーサルの抽象化を導出できると推測する。
43の言語と14のモルフォシンタクティックなカテゴリーで、最先端のニューロンレベルのプローブを用いて、初めて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-05-04T12:22:31Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - Morphology Without Borders: Clause-Level Morphological Annotation [8.559428282730021]
形態学を単語レベルではなく節レベルの現象と考えることを提案する。
我々は,英語,ドイツ語,トルコ語,ヘブライ語という4つの類型的に異なる言語を対象として,節レベルの形態に関する新しいデータセットを提供する。
実験の結果,節レベルタスクは各単語レベルタスクよりも格段に難しいが,言語間では同等に複雑であることがわかった。
論文 参考訳(メタデータ) (2022-02-25T17:20:28Z) - Delving Deeper into Cross-lingual Visual Question Answering [115.16614806717341]
標準学習装置に簡単な修正を加えることで、モノリンガル英語のパフォーマンスへの移行ギャップを大幅に減らすことができることを示す。
多言語マルチモーダル変換器の多言語間VQAを多言語間VQAで解析する。
論文 参考訳(メタデータ) (2022-02-15T18:22:18Z) - Evaluation of Morphological Embeddings for the Russian Language [0.0]
SkipgramObjectiveで訓練されたモルフォロジーベースの埋め込みは、既存の埋め込みモデル-FastTextを上回っません。
より複雑な、しかしモルフォロジーを知らないモデル、BERTは、単語のモルフォロジーの理解を必要とするタスクで大幅に大きなパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2021-03-11T11:59:11Z) - RuSentEval: Linguistic Source, Encoder Force! [1.8160945635344525]
ロシア向けの14のプロービングタスクの拡張セットであるRuSentEvalを紹介します。
5つの多言語トランスフォーマーにおける様々な言語特性の分布を探索するために補足的プローブ法の組み合わせを適用した。
その結果,言語知識の表現方法の共通理解に矛盾する興味深い知見が得られた。
論文 参考訳(メタデータ) (2021-02-28T17:43:42Z) - Verb Knowledge Injection for Multilingual Event Processing [50.27826310460763]
動詞のセマンティック・シンタクティックな振る舞いに関する明示的な情報を注入することでLMプリトレーニングトランスフォーマーの性能が向上するかどうかを検討する。
まず,動詞知識の注入が英語イベント抽出のパフォーマンス向上につながることを示す。
次に、他の言語でのイベント抽出のための動詞アダプタの有用性を探ります。
論文 参考訳(メタデータ) (2020-12-31T03:24:34Z) - Is Supervised Syntactic Parsing Beneficial for Language Understanding?
An Empirical Investigation [71.70562795158625]
従来のNLPは、高レベルセマンティック言語理解(LU)の成功に必要な構文解析を長い間保持(教師付き)してきた。
近年のエンドツーエンドニューラルネットワークの出現、言語モデリング(LM)による自己監視、および幅広いLUタスクにおける成功は、この信念に疑問を投げかけている。
本研究では,LM-Pretrained Transformer Network の文脈における意味的LUに対する教師あり構文解析の有用性を実証的に検討する。
論文 参考訳(メタデータ) (2020-08-15T21:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。