論文の概要: Cross-Lingual Fine-Grained Entity Typing
- arxiv url: http://arxiv.org/abs/2110.07837v1
- Date: Fri, 15 Oct 2021 03:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 12:35:15.941451
- Title: Cross-Lingual Fine-Grained Entity Typing
- Title(参考訳): クロスLingual Fine-Grained Entity Typing
- Authors: Nila Selvaraj, Yasumasa Onoe, and Greg Durrett
- Abstract要約: 本稿では,100以上の言語を処理可能な,言語間を包含したエンティティタイピングモデルを提案する。
このモデルが学習中に見つからない言語やエンティティに一般化する能力について分析する。
- 参考スコア(独自算出の注目度): 26.973783464706447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growth of cross-lingual pre-trained models has enabled NLP tools to
rapidly generalize to new languages. While these models have been applied to
tasks involving entities, their ability to explicitly predict typological
features of these entities across languages has not been established. In this
paper, we present a unified cross-lingual fine-grained entity typing model
capable of handling over 100 languages and analyze this model's ability to
generalize to languages and entities unseen during training. We train this
model on cross-lingual training data collected from Wikipedia hyperlinks in
multiple languages (training languages). During inference, our model takes an
entity mention and context in a particular language (test language, possibly
not in the training languages) and predicts fine-grained types for that entity.
Generalizing to new languages and unseen entities are the fundamental
challenges of this entity typing setup, so we focus our evaluation on these
settings and compare against simple yet powerful string match baselines.
Experimental results show that our approach outperforms the baselines on unseen
languages such as Japanese, Tamil, Arabic, Serbian, and Persian. In addition,
our approach substantially improves performance on unseen entities (even in
unseen languages) over the baselines, and human evaluation shows a strong
ability to predict relevant types in these settings.
- Abstract(参考訳): 言語間の事前学習モデルの成長により、NLPツールは新しい言語に迅速に一般化できるようになった。
これらのモデルはエンティティに関連するタスクに適用されているが、言語間でこれらのエンティティのタイプ学的特徴を明示的に予測する能力は確立されていない。
本稿では,100以上の言語を処理し,学習中に見つからない言語やエンティティに一般化する能力の解析が可能な,言語間統合型エンティティタイピングモデルを提案する。
我々は、複数の言語(訓練言語)でwikipediaハイパーリンクから収集した言語横断学習データに基づいて、このモデルをトレーニングする。
推論の間、我々のモデルは特定の言語(おそらくは訓練言語ではない)におけるエンティティの参照とコンテキストを取り、そのエンティティのきめ細かい型を予測する。
新しい言語や目に見えないエンティティに一般化することは、エンティティの型付け設定の基本的な課題であり、これらの設定に焦点を合わせ、単純だが強力な文字列マッチングベースラインと比較する。
実験の結果,日本語,タミル語,アラビア語,セルビア語,ペルシャ語などの非知覚言語のベースラインを上回った。
さらに,本手法はベースラインよりも(未認識の言語においても)未認識のエンティティのパフォーマンスを大幅に向上させ,人間による評価では関連する型を予測する能力が強く示されている。
関連論文リスト
- Tik-to-Tok: Translating Language Models One Token at a Time: An
Embedding Initialization Strategy for Efficient Language Adaptation [19.624330093598996]
低級および中級の言語を対象としたモノリンガル言語モデルのトレーニングは、限定的かつしばしば不十分な事前学習データによって難しい。
ソース言語とターゲット言語の両方を含む単語翻訳辞書を一般化することにより、ターゲットトークン化者からのトークンをソース言語トークン化者からの意味的に類似したトークンにマッピングする。
我々は、高リソースモデルから中・低リソース言語、すなわちオランダ語とフリシアン語への変換実験を行っている。
論文 参考訳(メタデータ) (2023-10-05T11:45:29Z) - On the Impact of Language Selection for Training and Evaluating
Programming Language Models [16.125924759649106]
CodeBERTモデルを用いて言語表現を解析することにより,プログラミング言語の類似性を評価する。
実験の結果,C++,Python,Javaなどの言語ではトークン表現が互いに近接していることが明らかとなった。
論文 参考訳(メタデータ) (2023-08-25T12:57:59Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Analyzing the Mono- and Cross-Lingual Pretraining Dynamics of
Multilingual Language Models [73.11488464916668]
本研究では,多言語事前学習プロセスのダイナミクスについて検討する。
我々は,XLM-Rプレトレーニング全体から抽出したチェックポイントを,一連の言語的タスクを用いて探索する。
分析の結果,より複雑なものよりも低レベルな言語スキルが得られ,早期に高い言語性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-05-24T03:35:00Z) - Predicting the Performance of Multilingual NLP Models [16.250791929966685]
本稿では,特定のタスクがテストセットを持つ言語上で,既存のモデルの性能スコアを利用する言語間でのモデル評価のための代替ソリューションを提案する。
我々はこれらの性能スコアの予測器を訓練し、この予測器を用いて異なる評価設定でモデルの性能を予測する。
提案手法は,既存の言語群に対する評価のギャップを埋めるのに有効であるが,未知の言語に一般化したい場合,さらなる改善が必要である可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-17T17:36:53Z) - mLUKE: The Power of Entity Representations in Multilingual Pretrained
Language Models [15.873069955407406]
我々は、エンティティ表現を持つ24言語で多言語モデルを訓練する。
本稿では,言語間移動タスクにおいて,単語ベース事前学習モデルより一貫して優れることを示す。
また,mLAMAデータセットを用いた多言語クローゼプロンプトタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-15T15:28:38Z) - Language Models are Few-shot Multilingual Learners [66.11011385895195]
我々は、非英語言語における多言語分類を行う際に、GPTモデルとT5モデルの多言語的スキルを評価する。
文脈としての英語の例を見ると、事前学習された言語モデルは、英語のテストサンプルだけでなく、英語以外のサンプルも予測できることが示されている。
論文 参考訳(メタデータ) (2021-09-16T03:08:22Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Linguistic Typology Features from Text: Inferring the Sparse Features of
World Atlas of Language Structures [73.06435180872293]
我々は、バイト埋め込みと畳み込み層に基づく繰り返しニューラルネットワーク予測器を構築する。
様々な言語型の特徴を確実に予測できることを示す。
論文 参考訳(メタデータ) (2020-04-30T21:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。