論文の概要: CL4KGE: A Curriculum Learning Method for Knowledge Graph Embedding
- arxiv url: http://arxiv.org/abs/2408.14840v1
- Date: Tue, 27 Aug 2024 07:51:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 14:45:05.199429
- Title: CL4KGE: A Curriculum Learning Method for Knowledge Graph Embedding
- Title(参考訳): CL4KGE:知識グラフ埋め込みのためのカリキュラム学習方法
- Authors: Yang Liu, Chuan Zhou, Peng Zhang, Yanan Cao, Yongchao Liu, Zhao Li, Hongyang Chen,
- Abstract要約: 知識グラフにおける3つの学習の難易度を測定するために、計量Zカウントを定義する。
この指標に基づいて,効率的なtextbfCurriculum textbfLearningに基づくトレーニング戦略である textbfCL4KGE を提案する。
- 参考スコア(独自算出の注目度): 36.47838597326351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graph embedding (KGE) constitutes a foundational task, directed towards learning representations for entities and relations within knowledge graphs (KGs), with the objective of crafting representations comprehensive enough to approximate the logical and symbolic interconnections among entities. In this paper, we define a metric Z-counts to measure the difficulty of training each triple ($<$head entity, relation, tail entity$>$) in KGs with theoretical analysis. Based on this metric, we propose \textbf{CL4KGE}, an efficient \textbf{C}urriculum \textbf{L}earning based training strategy for \textbf{KGE}. This method includes a difficulty measurer and a training scheduler that aids in the training of KGE models. Our approach possesses the flexibility to act as a plugin within a wide range of KGE models, with the added advantage of adaptability to the majority of KGs in existence. The proposed method has been evaluated on popular KGE models, and the results demonstrate that it enhances the state-of-the-art methods. The use of Z-counts as a metric has enabled the identification of challenging triples in KGs, which helps in devising effective training strategies.
- Abstract(参考訳): 知識グラフ埋め込み(KGE)は、知識グラフ内のエンティティと関係の表現を学習するための基礎的なタスクであり、エンティティ間の論理的および記号的相互関係を近似するのに十分な表現を包括的に構築することを目的としている。
本稿では,KGsにおける各三重項(<$head entity, relation, tail entity$>$)の学習の難しさを理論的解析を用いて測定する。
本測定値に基づいて, 効率的な \textbf{C}urriculum \textbf{L}earning に基づくトレーニング戦略である \textbf{CL4KGE} を提案する。
この方法は、KGEモデルのトレーニングを支援する難易度測定器とトレーニングスケジューラを含む。
当社のアプローチは,KGEモデルの範囲内でプラグインとして機能する柔軟性を備えており,KGの大多数に適応性の利点が加えられている。
提案手法は一般的なKGEモデルで評価され, 提案手法が改良されていることを示す。
計量としてのZカウントの使用により、KGsにおける挑戦的な三重項の識別が可能となり、効果的なトレーニング戦略の策定に役立っている。
関連論文リスト
- KG-FIT: Knowledge Graph Fine-Tuning Upon Open-World Knowledge [63.19837262782962]
知識グラフ埋め込み(KGE)技術は、知識グラフ内の実体と関係のコンパクトな表現を学習するために重要である。
本研究では、エンティティクラスタのセマンティックコヒーレントな階層構造を構築するKG-FITを紹介する。
ベンチマークデータセットFB15K-237、YAGO3-10、PrimeKGの実験は、最先端の訓練済み言語モデルに基づく手法よりもKG-FITの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-05-26T03:04:26Z) - KICGPT: Large Language Model with Knowledge in Context for Knowledge
Graph Completion [27.405080941584533]
本稿では,大規模言語モデルと3次元KGCレトリバーを統合したフレームワークKICGPTを提案する。
追加のトレーニングオーバーヘッドを発生させることなく、長い尾の問題を軽減する。
ベンチマークデータセットの実証結果は、KICGPTの有効性を示し、トレーニングオーバーヘッドは小さく、微調整は行わない。
論文 参考訳(メタデータ) (2024-02-04T08:01:07Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Knowledge Graph Embedding: An Overview [42.16033541753744]
本稿では,知識グラフの完成に関する現在の研究状況について概観する。
我々は,KG埋め込み(KGE)設計の2つの主要分野に焦点を当てた:1)距離ベース手法と2)意味マッチング方式である。
次に,2次元および3次元アフィン操作からインスピレーションを得る複合Eと複合E3Dを探索する。
論文 参考訳(メタデータ) (2023-09-21T21:52:42Z) - A Comprehensive Study on Knowledge Graph Embedding over Relational
Patterns Based on Rule Learning [49.09125100268454]
KGE(Knowledge Graph Embedding)は、KGC(Knowledge Completion Graph)タスクを解決するための効果的なアプローチであることが証明されている。
関係パターンはKGEモデルの性能において重要な要素である。
我々は,KGEモデルの性能を様々な関係パターン上で向上させるトレーニングフリー手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T17:30:57Z) - Schema First! Learn Versatile Knowledge Graph Embeddings by Capturing
Semantics with MASCHInE [3.174882428337821]
近年,知識グラフ埋め込みモデル (KGEMs) が注目されている。
本研究では,RDF/S情報を活用するKGの小型改良版であるプロトグラフを設計する。
学習されたプロトグラフベースの埋め込みは、KGのセマンティクスをカプセル化することを目的としており、KGEの学習に利用することができる。
論文 参考訳(メタデータ) (2023-06-06T13:22:54Z) - Knowledge Graph Contrastive Learning Based on Relation-Symmetrical
Structure [36.507635518425744]
関係対称構造に基づく知識グラフコントラスト学習フレームワークKGE-SymCLを提案する。
我々のフレームワークは、KGEモデルの識別能力を高めるために、KGの対称構造情報をマイニングする。
論文 参考訳(メタデータ) (2022-11-19T16:30:29Z) - ExpressivE: A Spatio-Functional Embedding For Knowledge Graph Completion [78.8942067357231]
ExpressivEは、一対の実体を点として埋め込み、仮想三重空間に超平行グラフとして関係を埋め込む。
我々は、ExpressivEが最先端のKGEと競合し、W18RRでさらに優れています。
論文 参考訳(メタデータ) (2022-06-08T23:34:39Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。