論文の概要: Zero-shot Cross-lingual NER via Mitigating Language Difference: An Entity-aligned Translation Perspective
- arxiv url: http://arxiv.org/abs/2509.01147v1
- Date: Mon, 01 Sep 2025 05:49:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.554025
- Title: Zero-shot Cross-lingual NER via Mitigating Language Difference: An Entity-aligned Translation Perspective
- Title(参考訳): Zero-shot Cross-lingual NER by Mitigating Language difference: An Entity-aligned Translation Perspective
- Authors: Zhihao Zhang, Sophia Yat Mei Lee, Dong Zhang, Shoushan Li, Guodong Zhou,
- Abstract要約: 言語間の名前付きエンティティ認識は、高ソース言語から低ソース言語に知識を移すことを目的としている。
既存のゼロショットCL-NERアプローチは主にラテン文字言語(LSL)に焦点を当てており、共通言語的特徴は効果的な知識伝達を促進する。
中国語や日本語のような非ラテン語のスクリプト言語(NSL)では、構造的な違いにより性能が劣化することが多い。
大規模言語モデル(LLM)を活用することで、EATはNSLと英語間のエンティティの整合化に二重翻訳戦略を採用する。
- 参考スコア(独自算出の注目度): 29.24475373988723
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cross-lingual Named Entity Recognition (CL-NER) aims to transfer knowledge from high-resource languages to low-resource languages. However, existing zero-shot CL-NER (ZCL-NER) approaches primarily focus on Latin script language (LSL), where shared linguistic features facilitate effective knowledge transfer. In contrast, for non-Latin script language (NSL), such as Chinese and Japanese, performance often degrades due to deep structural differences. To address these challenges, we propose an entity-aligned translation (EAT) approach. Leveraging large language models (LLMs), EAT employs a dual-translation strategy to align entities between NSL and English. In addition, we fine-tune LLMs using multilingual Wikipedia data to enhance the entity alignment from source to target languages.
- Abstract(参考訳): 言語間の名前付きエンティティ認識(CL-NER)は、高リソース言語から低リソース言語への知識の転送を目的としている。
しかし、既存のゼロショットCL-NER(ZCL-NER)アプローチは主にラテン文字言語(LSL)に焦点を当てており、共通言語的特徴は効果的な知識伝達を促進する。
対照的に、中国語や日本語のような非ラテン語のスクリプト言語(NSL)では、構造的な違いが深いため、性能が劣化することが多い。
これらの課題に対処するために、エンティティ・アライン・トランスフォーメーション(EAT)アプローチを提案する。
大規模言語モデル(LLM)を活用して、EATはNSLと英語のエンティティを整合させる二重翻訳戦略を採用している。
さらに、多言語ウィキペディアデータを用いてLLMを微調整し、ソースからターゲット言語へのエンティティアライメントを強化する。
関連論文リスト
- Language Surgery in Multilingual Large Language Models [32.77326546076424]
大規模言語モデル(LLM)はタスクや言語にまたがる顕著な一般化機能を示している。
本稿では, LLMにおける自然に出現する表現アライメント, 特に中層における表現アライメントについて検討する。
本稿では,言語間言語制御の高精度化と言語混乱を軽減するため,ITLC(Inference-Time Language Control)を提案する。
論文 参考訳(メタデータ) (2025-06-14T11:09:50Z) - Lens: Rethinking Multilingual Enhancement for Large Language Models [70.85065197789639]
大規模言語モデル(LLM)における多言語機能向上のための新しいアプローチであるLensを提案する。
Lensは2つの部分空間で機能する: 言語に依存しない部分空間で、ターゲット言語と中心言語を一致させて強力な意味表現を継承する部分空間、言語固有の部分空間で、ターゲット言語と中心言語を分離して言語的特異性を保存する部分空間である。
レンズは、モデルの英語能力を維持しながら、多言語のパフォーマンスを著しく向上させ、既存の訓練後のアプローチと比べて計算コストの低い結果を得る。
論文 参考訳(メタデータ) (2024-10-06T08:51:30Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間の対応する概念、すなわち言語を横断的に関連付けることができるだろうか?
本研究は,言語横断的タスクにおける最先端LLMの評価である。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Cross-Lingual Transfer Robustness to Lower-Resource Languages on Adversarial Datasets [4.653113033432781]
多言語言語モデル(MLLM)の言語間伝達能力について検討した。
本研究は,言語間移動とそのNLP応用への応用に関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2024-03-29T08:47:15Z) - Multi-level Contrastive Learning for Cross-lingual Spoken Language
Understanding [90.87454350016121]
コントラスト学習のための難解なサンプルを, あらゆるレベルで生成するコードスイッチング手法を開発した。
言語間知識伝達にラベルセマンティクスを利用するラベル認識ジョイントモデルを開発した。
論文 参考訳(メタデータ) (2022-05-07T13:44:28Z) - Meta-X$_{NLG}$: A Meta-Learning Approach Based on Language Clustering
for Zero-Shot Cross-Lingual Transfer and Generation [11.155430893354769]
本稿では,類型的に多様な言語から共有可能な構造を学習するためのメタラーニングフレームワークを提案する。
まず、まず言語表現に基づいて言語をクラスタ化し、各クラスタのセントロイド言語を識別する。
メタ学習アルゴリズムは、全てのセントロイド言語で訓練され、ゼロショット設定で他の言語で評価される。
論文 参考訳(メタデータ) (2022-03-19T05:22:07Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。