論文の概要: FedMKGC: Privacy-Preserving Federated Multilingual Knowledge Graph
Completion
- arxiv url: http://arxiv.org/abs/2312.10645v1
- Date: Sun, 17 Dec 2023 08:09:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 15:20:30.007139
- Title: FedMKGC: Privacy-Preserving Federated Multilingual Knowledge Graph
Completion
- Title(参考訳): fedmkgc:プライバシー保護型フェデレーション多言語知識グラフ補完
- Authors: Wei Tang, Zhiqian Wu, Yixin Cao, Yong Liao, Pengyuan Zhou
- Abstract要約: 知識グラフ補完(KGC)は、知識グラフ(KG)の欠落事実を予測することを目的とする。
KG間で生データを転送することに依存する従来の方法は、プライバシー上の懸念を提起している。
我々は、生データ交換やエンティティアライメントを必要とせずに、複数のKGから暗黙的に知識を集約する新しい連合学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.4302940596294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph completion (KGC) aims to predict missing facts in knowledge
graphs (KGs), which is crucial as modern KGs remain largely incomplete. While
training KGC models on multiple aligned KGs can improve performance, previous
methods that rely on transferring raw data among KGs raise privacy concerns. To
address this challenge, we propose a new federated learning framework that
implicitly aggregates knowledge from multiple KGs without demanding raw data
exchange and entity alignment. We treat each KG as a client that trains a local
language model through textbased knowledge representation learning. A central
server then aggregates the model weights from clients. As natural language
provides a universal representation, the same knowledge thus has similar
semantic representations across KGs. As such, the aggregated language model can
leverage complementary knowledge from multilingual KGs without demanding raw
user data sharing. Extensive experiments on a benchmark dataset demonstrate
that our method substantially improves KGC on multilingual KGs, achieving
comparable performance to state-of-the-art alignment-based models without
requiring any labeled alignments or raw user data sharing. Our codes will be
publicly available.
- Abstract(参考訳): 知識グラフ補完(KGC)は、知識グラフ(KG)に欠けている事実を予測することを目的としている。
複数の調整されたkgs上でkgcモデルをトレーニングすることでパフォーマンスが向上する一方で、kgs間で生データを転送する従来の方法はプライバシの懸念を生じさせる。
この課題に対処するために,我々は,生のデータ交換やエンティティアライメントを必要とせずに,複数のkgから知識を暗黙的に集約する新しい連合学習フレームワークを提案する。
各kgを,テキストベースの知識表現学習を通じてローカル言語モデルを学習するクライアントとして扱う。
中央サーバがクライアントからモデルの重みを集約する。
自然言語は普遍表現を提供するので、同じ知識はKGにまたがる同様の意味表現を持つ。
このように、集約言語モデルは、生のユーザデータ共有を必要とせずに、多言語KGからの相補的知識を活用することができる。
ベンチマークデータセットの大規模な実験により,提案手法は多言語KG上でのKGCを大幅に改善し,ラベル付きアライメントや生のユーザデータ共有を必要とせず,最先端アライメントモデルに匹敵する性能を実現した。
私たちのコードは公開されます。
関連論文リスト
- Learning Rules from KGs Guided by Language Models [48.858741745144044]
ルール学習手法は、潜在的に欠落する事実を予測するために適用することができる。
規則のランク付けは、高度に不完全あるいは偏りのあるKGよりも特に難しい。
近年のLanguage Models (LM) の台頭により、いくつかの研究が、LMがKG補完の代替手段として利用できると主張している。
論文 参考訳(メタデータ) (2024-09-12T09:27:36Z) - KG-FIT: Knowledge Graph Fine-Tuning Upon Open-World Knowledge [63.19837262782962]
知識グラフ埋め込み(KGE)技術は、知識グラフ内の実体と関係のコンパクトな表現を学習するために重要である。
本研究では、エンティティクラスタのセマンティックコヒーレントな階層構造を構築するKG-FITを紹介する。
ベンチマークデータセットFB15K-237、YAGO3-10、PrimeKGの実験は、最先端の訓練済み言語モデルに基づく手法よりもKG-FITの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-05-26T03:04:26Z) - Collective Knowledge Graph Completion with Mutual Knowledge Distillation [11.922522192224145]
我々は,異なるKGからの集合的知識の最大化に焦点をあてるマルチKG完備化の問題について検討する。
CKGC-CKDと呼ばれる,個々のKGと大きな融合KGの両方で,関係対応グラフ畳み込みネットワークエンコーダモデルを用いる新しい手法を提案する。
複数言語データセットによる実験結果から,本手法はKGCタスクにおけるすべての最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T09:49:40Z) - Endowing Language Models with Multimodal Knowledge Graph Representations [47.22480859519051]
最近リリースされた VisualSem KG を外部知識リポジトリとして使用しています。
我々は、KGからエンティティを取得し、そのマルチモーダル表現を使用して、下流タスクのパフォーマンスを改善する。
論文 参考訳(メタデータ) (2022-06-27T10:10:42Z) - CoSe-Co: Text Conditioned Generative CommonSense Contextualizer [13.451001884972033]
事前訓練された言語モデル(PTLM)は、自然言語のタスクでうまく機能することが示されている。
文に条件付きCommonSense Contextualizer(CoSe-Co)を提案する。
論文 参考訳(メタデータ) (2022-06-12T09:57:32Z) - Few-shot Knowledge Graph-to-Text Generation with Pretrained Language
Models [42.38563175680914]
本稿では,知識グラフ(KG)の事実を記述した自然言語テキストの自動生成方法について検討する。
数ショットの設定を考えると、言語理解と生成において事前学習された言語モデル(PLM)の優れた能力を利用する。
論文 参考訳(メタデータ) (2021-06-03T06:48:00Z) - Multilingual Knowledge Graph Completion with Joint Relation and Entity
Alignment [32.47122460214232]
ALIGNKGCはシードアライメントを用いて3つのKGC,関係アライメント,RA損失を協調的に最適化する。
ALIGNKGCは、各モノリンガルKGに対する最先端のシングルKGCシステム補完モデルよりも10-32MRRの改善を実現します。
論文 参考訳(メタデータ) (2021-04-18T10:27:44Z) - Language Models are Open Knowledge Graphs [75.48081086368606]
近年の深層言語モデルは,事前学習を通じて大規模コーパスから知識を自動取得する。
本稿では,言語モデルに含まれる知識をKGにキャストするための教師なし手法を提案する。
KGは、コーパス上の(微調整なしで)事前訓練された言語モデルの1つの前方パスで構築されていることを示す。
論文 参考訳(メタデータ) (2020-10-22T18:01:56Z) - Multilingual Knowledge Graph Completion via Ensemble Knowledge Transfer [43.453915033312114]
知識グラフ(KG)に欠けている事実を予測することは、知識ベースの構築と推論において重要なタスクである。
KEnSは、学習と知識のアンサンブルを複数の言語固有のKGに組み込むための新しいフレームワークである。
5つの実世界の言語固有のKGの実験により、KEnSはKG完了に関する最先端の手法を一貫して改善していることが示された。
論文 参考訳(メタデータ) (2020-10-07T04:54:03Z) - Cross-lingual Entity Alignment with Incidental Supervision [76.66793175159192]
本稿では,多言語KGとテキストコーパスを共通埋め込み方式で共同で表現する,偶発的に教師付きモデルであるJEANSを提案する。
ベンチマークデータセットの実験では、JEANSがエンティティアライメントとインシデントインシデントインシデントインスペクションの改善を期待できる結果となった。
論文 参考訳(メタデータ) (2020-05-01T01:53:56Z) - On the Role of Conceptualization in Commonsense Knowledge Graph
Construction [59.39512925793171]
アトミックやASERのような常識知識グラフ(CKG)は、従来のKGと大きく異なる。
本稿では, CKG の概念化手法を紹介し, テキストに記述されたエンティティを特定の概念のインスタンスとみなすか, あるいはその逆を例に紹介する。
提案手法は, 可塑性三重項を効果的に同定し, 新たなノードの3重項と, 多様性と新規性の両端項によってKGを拡張できる。
論文 参考訳(メタデータ) (2020-03-06T14:35:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。