論文の概要: KG-TRICK: Unifying Textual and Relational Information Completion of Knowledge for Multilingual Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2501.03560v1
- Date: Tue, 07 Jan 2025 06:21:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:50:56.503964
- Title: KG-TRICK: Unifying Textual and Relational Information Completion of Knowledge for Multilingual Knowledge Graphs
- Title(参考訳): KG-TRICK:多言語知識グラフのための知識のテキスト情報と関係情報の統合
- Authors: Zelin Zhou, Simone Conia, Daniel Lee, Min Li, Shenglei Huang, Umar Farooq Minhas, Saloni Potdar, Henry Xiao, Yunyao Li,
- Abstract要約: KG-TRICKは,多言語知識グラフに対するテキストおよびリレーショナル情報補完のタスクを統一する新しいシーケンス・ツー・シーケンス・フレームワークである。
i) KGCとKGEのタスクをひとつのフレームワークに統合することは可能であり、i) 複数の言語からのテキスト情報を組み合わせることは、KGの完全性を改善するのに有用である。
コントリビューションの一環として、KGのテキスト情報補完のための手作業による最大のベンチマークであるWikiKGE10++も紹介します。
- 参考スコア(独自算出の注目度): 17.447946165398932
- License:
- Abstract: Multilingual knowledge graphs (KGs) provide high-quality relational and textual information for various NLP applications, but they are often incomplete, especially in non-English languages. Previous research has shown that combining information from KGs in different languages aids either Knowledge Graph Completion (KGC), the task of predicting missing relations between entities, or Knowledge Graph Enhancement (KGE), the task of predicting missing textual information for entities. Although previous efforts have considered KGC and KGE as independent tasks, we hypothesize that they are interdependent and mutually beneficial. To this end, we introduce KG-TRICK, a novel sequence-to-sequence framework that unifies the tasks of textual and relational information completion for multilingual KGs. KG-TRICK demonstrates that: i) it is possible to unify the tasks of KGC and KGE into a single framework, and ii) combining textual information from multiple languages is beneficial to improve the completeness of a KG. As part of our contributions, we also introduce WikiKGE10++, the largest manually-curated benchmark for textual information completion of KGs, which features over 25,000 entities across 10 diverse languages.
- Abstract(参考訳): マルチ言語知識グラフ(KG)は、様々なNLPアプリケーションに対して高品質なリレーショナルおよびテキスト情報を提供するが、特に英語以外の言語では不完全であることが多い。
これまでの研究では、異なる言語のKGからの情報を組み合わせることで、エンティティ間の不足関係を予測するKGC(Knowledge Graph Completion)や、エンティティの欠落したテキスト情報を予測するKGE(Knowledge Graph Enhancement)が役に立つことが示されている。
これまで、KGCとKGEを独立したタスクとして検討してきたが、相互依存的かつ相互に有益であると仮定した。
この目的のために,多言語KGに対するテキストおよび関係情報補完のタスクを統一する新しいシーケンス・ツー・シーケンス・フレームワークであるKG-TRICKを紹介する。
KG-TRICKは次のように説明している。
i) KGCとKGEのタスクを単一のフレームワークに統合することが可能であり、
二 複数の言語からのテキスト情報を組み合わせることは、KGの完全性を向上させるのに有用である。
私たちのコントリビューションの一環として、WikiKGE10++も導入しています。これは、KGのテキスト情報補完のための、手作業による最大のベンチマークです。
関連論文リスト
- GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - FedMKGC: Privacy-Preserving Federated Multilingual Knowledge Graph
Completion [21.4302940596294]
知識グラフ補完(KGC)は、知識グラフ(KG)の欠落事実を予測することを目的とする。
KG間で生データを転送することに依存する従来の方法は、プライバシー上の懸念を提起している。
我々は、生データ交換やエンティティアライメントを必要とせずに、複数のKGから暗黙的に知識を集約する新しい連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-17T08:09:27Z) - Collective Knowledge Graph Completion with Mutual Knowledge Distillation [11.922522192224145]
我々は,異なるKGからの集合的知識の最大化に焦点をあてるマルチKG完備化の問題について検討する。
CKGC-CKDと呼ばれる,個々のKGと大きな融合KGの両方で,関係対応グラフ畳み込みネットワークエンコーダモデルを用いる新しい手法を提案する。
複数言語データセットによる実験結果から,本手法はKGCタスクにおけるすべての最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T09:49:40Z) - Deep Bidirectional Language-Knowledge Graph Pretraining [159.9645181522436]
DRAGONは、テキストとKGを大規模に融合した言語知識基盤モデルを事前学習するための自己教師型アプローチである。
我々のモデルは、入力としてテキストセグメントと関連するKGサブグラフのペアを取り、両モードから情報を双方向に融合する。
論文 参考訳(メタデータ) (2022-10-17T18:02:52Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z) - Collaborative Knowledge Graph Fusion by Exploiting the Open Corpus [59.20235923987045]
知識表現の質を維持しながら、新たに収穫した3倍の知識グラフを豊かにすることは困難である。
本稿では,付加コーパスから得られる情報を用いてKGを精製するシステムを提案する。
論文 参考訳(メタデータ) (2022-06-15T12:16:10Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Multilingual Knowledge Graph Completion with Joint Relation and Entity
Alignment [32.47122460214232]
ALIGNKGCはシードアライメントを用いて3つのKGC,関係アライメント,RA損失を協調的に最適化する。
ALIGNKGCは、各モノリンガルKGに対する最先端のシングルKGCシステム補完モデルよりも10-32MRRの改善を実現します。
論文 参考訳(メタデータ) (2021-04-18T10:27:44Z) - Multilingual Knowledge Graph Completion via Ensemble Knowledge Transfer [43.453915033312114]
知識グラフ(KG)に欠けている事実を予測することは、知識ベースの構築と推論において重要なタスクである。
KEnSは、学習と知識のアンサンブルを複数の言語固有のKGに組み込むための新しいフレームワークである。
5つの実世界の言語固有のKGの実験により、KEnSはKG完了に関する最先端の手法を一貫して改善していることが示された。
論文 参考訳(メタデータ) (2020-10-07T04:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。