論文の概要: Towards Instance-Level Parser Selection for Cross-Lingual Transfer of
Dependency Parsers
- arxiv url: http://arxiv.org/abs/2004.07642v1
- Date: Thu, 16 Apr 2020 13:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:27:35.576206
- Title: Towards Instance-Level Parser Selection for Cross-Lingual Transfer of
Dependency Parsers
- Title(参考訳): 係り受けパーサの言語間伝達のためのインスタンスレベルパーサー選択に向けて
- Authors: Robert Litschko, Ivan Vuli\'c, \v{Z}eljko Agi\'c, Goran Glava\v{s}
- Abstract要約: 我々は、インスタンスレベルの選択(ILPS)という、新しい言語間移動パラダイムを論じる。
本稿では,デレキシライズドトランスファーの枠組みにおけるインスタンスレベルの選択に着目した概念実証研究を提案する。
- 参考スコア(独自算出の注目度): 59.345145623931636
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Current methods of cross-lingual parser transfer focus on predicting the best
parser for a low-resource target language globally, that is, "at treebank
level". In this work, we propose and argue for a novel cross-lingual transfer
paradigm: instance-level parser selection (ILPS), and present a
proof-of-concept study focused on instance-level selection in the framework of
delexicalized parser transfer. We start from an empirical observation that
different source parsers are the best choice for different Universal POS
sequences in the target language. We then propose to predict the best parser at
the instance level. To this end, we train a supervised regression model, based
on the Transformer architecture, to predict parser accuracies for individual
POS-sequences. We compare ILPS against two strong single-best parser selection
baselines (SBPS): (1) a model that compares POS n-gram distributions between
the source and target languages (KL) and (2) a model that selects the source
based on the similarity between manually created language vectors encoding
syntactic properties of languages (L2V). The results from our extensive
evaluation, coupling 42 source parsers and 20 diverse low-resource test
languages, show that ILPS outperforms KL and L2V on 13/20 and 14/20 test
languages, respectively. Further, we show that by predicting the best parser
"at the treebank level" (SBPS), using the aggregation of predictions from our
instance-level model, we outperform the same baselines on 17/20 and 16/20 test
languages.
- Abstract(参考訳): 言語間パーサ転送の現在の手法は、世界の低リソースターゲット言語、すなわち"ツリーバンクレベル"のパーサの予測に重点を置いている。
本稿では,新しい言語間伝達パラダイムであるインスタンスレベルパーサ選択(ilps)の提案と議論を行い,語彙化パーサ転送の枠組みにおけるインスタンスレベル選択に着目した概念実証研究を提案する。
まず、異なるソースパーサがターゲット言語における異なるUniversal POSシーケンスの最適選択である、という経験的観察から始める。
次に、インスタンスレベルで最高のパーサを予測することを提案する。
そこで我々は,Transformerアーキテクチャに基づく教師付き回帰モデルをトレーニングし,個々のPOS系列に対するパーサ精度を予測する。
ILPSを2つの強力なシングルベストパーサ選択ベースライン(SBPS)と比較する。(1)ソースとターゲット言語(KL)間のPOS n-gram分布を比較するモデルと(2)手作業で作成した言語ベクトル間の類似性に基づいてソースを選択するモデル(L2V)。
広範な評価の結果,42のソースパーサと20の低リソーステスト言語を結合した結果,13/20と14/20のテスト言語では,ilpがklとl2vよりも優れていることがわかった。
さらに,「ツリーバンクレベル」(SBPS)で最高のパーサを予測し,インスタンスレベルのモデルから予測を集約することにより,17/20と16/20のテスト言語で同じベースラインを上回ります。
関連論文リスト
- Multilingual Contrastive Decoding via Language-Agnostic Layers Skipping [60.458273797431836]
対照的なレイヤ(DoLa)によるデコーディングは、大規模言語モデルの生成品質を改善するために設計されている。
このアプローチは英語以外のタスクではうまくいきません。
モデルの前方通過における言語遷移に関する従来の解釈可能性の研究から着想を得て,改良されたコントラスト復号アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-15T15:14:01Z) - To token or not to token: A Comparative Study of Text Representations
for Cross-Lingual Transfer [23.777874316083984]
ゼロショットと少数ショットの両方の評価を重み付けして表現できるスコアリング言語クオシアン計量を提案する。
解析の結果,言語が密接に関連し,視覚的に類似したスクリプトを共有する場合,画像ベースモデルは言語間移動に優れることがわかった。
単語関係が重要な役割を果たす依存性解析タスクでは、キャラクタレベルに焦点を当てたモデルが他よりも優れています。
論文 参考訳(メタデータ) (2023-10-12T06:59:10Z) - A Simple and Strong Baseline for End-to-End Neural RST-style Discourse
Parsing [44.72809363746258]
本稿では,既存の単純な構文解析手法であるトップダウンとボトムアップと,トランスフォーマーに基づく事前学習言語モデルを統合することで,強力なベースラインを探求する。
2つのベンチマークデータセットから得られた実験結果は、解析性能が解析戦略よりも事前訓練された言語モデルに依存していることを示している。
論文 参考訳(メタデータ) (2022-10-15T18:38:08Z) - BenchCLAMP: A Benchmark for Evaluating Language Models on Syntactic and
Semantic Parsing [55.058258437125524]
本稿では,制約付きLanguage Model Parsingを評価するベンチマークであるBenchCLAMPを紹介する。
APIを通じてのみ利用可能な2つのGPT-3変種を含む8つの言語モデルをベンチマークする。
実験により,エンコーダ-デコーダ事前学習言語モデルでは,モデル出力が有効であると制約された場合に,構文解析や意味解析の最先端手法を超えることができることがわかった。
論文 参考訳(メタデータ) (2022-06-21T18:34:11Z) - Unsupervised and Few-shot Parsing from Pretrained Language Models [56.33247845224995]
本研究では,事前学習言語モデルで学習した自己注意重み行列に基づいて,アウトアソシエーションスコアを算出した教師なし構成的パーシングモデルを提案する。
教師なしモデルからいくつかの注釈付き木を用いた数ショット構文解析モデルに拡張し、解析のためのより優れた線形射影行列を学習する。
FPIOは20本の注釈付き木で訓練され、50本の注釈付き木で訓練された過去の数枚の構文解析よりも優れていた。
論文 参考訳(メタデータ) (2022-06-10T10:29:15Z) - EAG: Extract and Generate Multi-way Aligned Corpus for Complete Multi-lingual Neural Machine Translation [63.88541605363555]
EAG(Extract and Generate)は,バイリンガルデータから大規模かつ高品質なマルチウェイアライメントコーパスを構築するための2段階のアプローチである。
まず、異なる言語対から、非常に類似したソースやターゲット文を持つバイリンガルな例をペアリングして、候補に整列した例を抽出する。
次に、よく訓練された生成モデルを用いて、候補から最終的な整列例を生成する。
論文 参考訳(メタデータ) (2022-03-04T08:21:27Z) - Substructure Distribution Projection for Zero-Shot Cross-Lingual
Dependency Parsing [55.69800855705232]
SubDPは、サブ構造分布を別々に投影することで、あるドメインの構造を別のドメインに分割する手法である。
我々は,0ショットの言語間依存関係解析におけるSubDPの評価を行い,依存関係弧をサブストラクチャとする。
論文 参考訳(メタデータ) (2021-10-16T10:12:28Z) - TGIF: Tree-Graph Integrated-Format Parser for Enhanced UD with Two-Stage
Generic- to Individual-Language Finetuning [18.71574180551552]
IWPT 2021共有タスクへのコントリビューションについて述べる。
我々のメインシステムコンポーネントはハイブリッドツリーグラフであり、スプレッドツリーに存在しないグラフエッジを付加した拡張グラフに対して、スプレッドツリーの予測を統合する。
論文 参考訳(メタデータ) (2021-07-14T18:00:08Z) - Applying Occam's Razor to Transformer-Based Dependency Parsing: What
Works, What Doesn't, and What is Really Necessary [9.347252855045125]
我々は,事前学習した埋め込みの選択と,グラフベースの依存性スキームでLSTM層を使用するかどうかについて検討する。
我々は,12言語中10言語に対して,新しい最先端の成果(LAS)を実現するため,シンプルだが広く適用可能なアーキテクチャと構成を提案する。
論文 参考訳(メタデータ) (2020-10-23T22:58:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。