論文の概要: Multilingual Knowledge Graph Completion via Efficient Multilingual Knowledge Sharing
- arxiv url: http://arxiv.org/abs/2510.07736v1
- Date: Thu, 09 Oct 2025 03:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.840135
- Title: Multilingual Knowledge Graph Completion via Efficient Multilingual Knowledge Sharing
- Title(参考訳): 効率的な多言語知識共有による多言語知識グラフ補完
- Authors: Cunli Mao, Xiaofei Gao, Ran Song, Shizhu He, Shengxiang Gao, Kang Liu, Zhengtao Yu,
- Abstract要約: 本稿では,多言語共有知識を活用して性能を大幅に向上する新しいMKGCフレームワークを提案する。
私たちのフレームワークは、それぞれHits@1、Hits@3、Hits@10メトリクスで5.47%、3.27%、1.01%の改善を実現しています。
- 参考スコア(独自算出の注目度): 37.388717962554715
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) based Multilingual Knowledge Graph Completion (MKGC) aim to predict missing facts by leveraging LLMs' multilingual understanding capabilities, improving the completeness of multilingual knowledge graphs (KGs). However, existing MKGC research underutilizes the multilingual capabilities of LLMs and ignores the shareability of cross-lingual knowledge. In this paper, we propose a novel MKGC framework that leverages multilingual shared knowledge to significantly enhance performance through two components: Knowledge-level Grouped Mixture of Experts (KL-GMoE) and Iterative Entity Reranking (IER). KL-GMoE efficiently models shared knowledge, while IER significantly enhances its utilization. To evaluate our framework, we constructed a mKG dataset containing 5 languages and conducted comprehensive comparative experiments with existing state-of-the-art (SOTA) MKGC method. The experimental results demonstrate that our framework achieves improvements of 5.47%, 3.27%, and 1.01% in the Hits@1, Hits@3, and Hits@10 metrics, respectively, compared with SOTA MKGC method. Further experimental analysis revealed the properties of knowledge sharing in settings of unseen and unbalanced languages. We have released the dataset and code for our work on https://github.com/gaoxiaofei07/KL-GMoE.
- Abstract(参考訳): 大規模言語モデル(LLMs)に基づく多言語知識グラフ補完(MKGC)は,LLMの多言語理解機能を活用し,多言語知識グラフ(KGs)の完全性を向上させることで,行方不明な事実を予測することを目的としている。
しかし、既存のMKGC研究はLLMの多言語的能力を弱め、言語間知識の共有性を無視している。
本稿では,多言語共有知識を活用した新しいMKGCフレームワークを提案し,知識レベル(KL-GMoE)とIER(Iterative Entity Re rank)の2つのコンポーネントを通して性能を著しく向上させる。
KL-GMoEは知識の共有を効率的にモデル化し、IERはその利用を著しく向上させる。
5言語を含むmKGデータセットを構築し,既存のSOTA (State-of-the-art) MKGC法による総合比較実験を行った。
実験の結果,SOTA MKGC法と比較して,Hits@1,Hits@3,Hits@10では5.47%,3.27%,1.01%の改善が得られた。
さらに実験により,未知言語と不均衡言語の設定における知識共有の特性が明らかになった。
我々は、https://github.com/gaoxiaofei07/KL-GMoE.comのデータセットとコードをリリースした。
関連論文リスト
- Retrieval-Augmented Machine Translation with Unstructured Knowledge [63.97706326080482]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を強化するために追加情報を導入する
機械翻訳(MT)では、従来の研究は通常、ペア化されたMTコーパスや知識グラフからコンテキスト内例を検索する。
本稿では,非構造化文書を用いた検索強化MTについて検討する。
論文 参考訳(メタデータ) (2024-12-05T17:00:32Z) - Adapting Multilingual LLMs to Low-Resource Languages with Knowledge Graphs via Adapters [3.7273829129985305]
本稿では,言語から多言語大モデル(LLM)へのグラフ知識の統合について検討する。
我々は、感情分析(SA)および名前付きエンティティ認識(NER)における低リソース言語(LRL)の性能向上のために、言語固有のアダプタを使用している。
構造化グラフ知識が,SA および NER における LRL の多言語 LLM の性能に与える影響を評価する。
論文 参考訳(メタデータ) (2024-07-01T15:56:24Z) - Multilingual Knowledge Graph Completion from Pretrained Language Models with Knowledge Constraints [34.66309564398462]
本稿では,mKGCの国際的および地域的知識制約について紹介する。
公開データセットの実験結果から,Hits@1とHits@10では,私たちのメソッドが以前のSOTAよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2024-06-26T05:46:35Z) - Adapters for Enhanced Modeling of Multilingual Knowledge and Text [54.02078328453149]
言語モデルは多言語言語モデル(MLLM)に拡張された。
知識グラフは、注意深いキュレーションを必要とし、少数の高リソース言語でのみ利用可能である、明示的な三重形式で事実を含む。
我々は,MLLMを多言語知識グラフ(MLKG)からの知識で拡張し,言語や知識グラフのタスクに多くの言語で取り組むことを提案する。
論文 参考訳(メタデータ) (2022-10-24T21:33:42Z) - Prix-LM: Pretraining for Multilingual Knowledge Base Construction [59.02868906044296]
複数言語による知識構築と完成のための統合フレームワークである Prix-LM を提案する。
既存の多言語KBから抽出したモノリンガルトリプルとクロスリンガルリンクの2種類の知識を利用する。
複数の言語におけるリンク予測、言語間リンク、バイリンガル語彙誘導など、標準的なエンティティ関連タスクの実験は、その効果を実証している。
論文 参考訳(メタデータ) (2021-10-16T02:08:46Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。