論文の概要: Improving Zero-Shot Multi-Lingual Entity Linking
- arxiv url: http://arxiv.org/abs/2104.08082v1
- Date: Fri, 16 Apr 2021 12:50:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:26:19.384709
- Title: Improving Zero-Shot Multi-Lingual Entity Linking
- Title(参考訳): ゼロショット多言語エンティティリンクの改善
- Authors: Elliot Schumacher, James Mayfield, and Mark Dredze
- Abstract要約: 我々は、複数の言語における同言語知識ベースへの参照をリンクするように、1つのモデルが訓練される多言語エンティティリンクを考える。
テキストの多言語トランスフォーマー表現を利用して,多言語設定に容易に適用可能なニューラルネットワークローダアーキテクチャを提案する。
このアプローチを使用することで、いくつかのデータセットでのリコールが改善され、しばしば言語内のパフォーマンスにマッチする。
- 参考スコア(独自算出の注目度): 14.502266106371433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity linking -- the task of identifying references in free text to relevant
knowledge base representations -- often focuses on single languages. We
consider multilingual entity linking, where a single model is trained to link
references to same-language knowledge bases in several languages. We propose a
neural ranker architecture, which leverages multilingual transformer
representations of text to be easily applied to a multilingual setting. We then
explore how a neural ranker trained in one language (e.g. English) transfers to
an unseen language (e.g. Chinese), and find that while there is a consistent
but not large drop in performance. How can this drop in performance be
alleviated? We explore adding an adversarial objective to force our model to
learn language-invariant representations. We find that using this approach
improves recall in several datasets, often matching the in-language
performance, thus alleviating some of the performance loss occurring from
zero-shot transfer.
- Abstract(参考訳): エンティティリンク -- フリーテキストで関連する知識ベース表現に参照を識別するタスク -- は、しばしば単一の言語に焦点を当てる。
複数の言語における同言語知識ベースへの参照をリンクするために単一のモデルを訓練する多言語実体リンクを考える。
テキストの多言語トランスフォーマー表現を利用して,多言語設定に容易に適用可能なニューラルネットワークローダアーキテクチャを提案する。
次に、ある言語(例えば、)でトレーニングされたニューラルランサーについて調べる。
英語) 目に見えない言語(例)に移行する
一貫性はあるものの、パフォーマンスに大きな低下はない。
パフォーマンスの低下をどうやって軽減できるのか?
我々は,モデルに言語不変表現を学習させるために,敵対的な目的を加えることを検討する。
このアプローチを使用することで、いくつかのデータセットでのリコールが改善され、言語内のパフォーマンスにマッチすることが多いため、ゼロショット転送によるパフォーマンス損失が軽減される。
関連論文リスト
- Multilingual Entity and Relation Extraction from Unified to
Language-specific Training [29.778332361215636]
エンティティと関係抽出タスクの既存のアプローチは、主に英語のコーパスに焦点を当て、他の言語を無視している。
言語干渉を軽減するために,2段階の多言語学習手法と,Multilingual Entity and Relation extract framework (mERE) と呼ばれるジョイントモデルを提案する。
本手法はモノリンガル法と多言語ベースライン法の両方に優れる。
論文 参考訳(メタデータ) (2023-01-11T12:26:53Z) - Meta-X$_{NLG}$: A Meta-Learning Approach Based on Language Clustering
for Zero-Shot Cross-Lingual Transfer and Generation [11.155430893354769]
本稿では,類型的に多様な言語から共有可能な構造を学習するためのメタラーニングフレームワークを提案する。
まず、まず言語表現に基づいて言語をクラスタ化し、各クラスタのセントロイド言語を識別する。
メタ学習アルゴリズムは、全てのセントロイド言語で訓練され、ゼロショット設定で他の言語で評価される。
論文 参考訳(メタデータ) (2022-03-19T05:22:07Z) - Zero-Shot Dependency Parsing with Worst-Case Aware Automated Curriculum
Learning [5.865807597752895]
我々は、自動カリキュラム学習に依存するマルチタスク学習の手法を採用し、外来言語の性能解析を動的に最適化する。
この手法はゼロショット設定における一様・一様サンプリングよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2022-03-16T11:33:20Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Cross-Lingual Transfer in Zero-Shot Cross-Language Entity Linking [19.083300046605252]
言語間リンクの基盤は、複数の言語で言及され、単一の言語知識ベースに言及される。
BERTの多言語化能力は単言語および多言語設定において頑健な性能をもたらすことが判明した。
論文 参考訳(メタデータ) (2020-10-19T20:08:26Z) - Vokenization: Improving Language Understanding with Contextualized,
Visual-Grounded Supervision [110.66085917826648]
我々は,言語トークンを関連画像に文脈的にマッピングすることで,言語のみのデータに対するマルチモーダルアライメントを補間する手法を開発した。
語彙化」は比較的小さな画像キャプションデータセットに基づいて訓練され、それを大規模言語コーパスのための語彙生成に適用する。
これらの文脈的に生成された語彙を用いて学習し、視覚的に制御された言語モデルにより、複数の純粋言語タスクにおいて、自己教師による代替よりも一貫した改善が示される。
論文 参考訳(メタデータ) (2020-10-14T02:11:51Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - Bridging Linguistic Typology and Multilingual Machine Translation with
Multi-View Language Representations [83.27475281544868]
特異ベクトル標準相関解析を用いて、各情報源からどのような情報が誘導されるかを調べる。
我々の表現は類型学を組み込み、言語関係と相関関係を強化する。
次に、多言語機械翻訳のための多視点言語ベクトル空間を利用して、競合する全体的な翻訳精度を実現する。
論文 参考訳(メタデータ) (2020-04-30T16:25:39Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。