論文の概要: Sharing Parameter by Conjugation for Knowledge Graph Embeddings in Complex Space
- arxiv url: http://arxiv.org/abs/2404.11809v1
- Date: Thu, 18 Apr 2024 00:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 19:50:54.531032
- Title: Sharing Parameter by Conjugation for Knowledge Graph Embeddings in Complex Space
- Title(参考訳): 複合空間における知識グラフ埋め込みの共役による共有パラメータ
- Authors: Xincan Feng, Zhi Qu, Yuchang Cheng, Taro Watanabe, Nobuhiro Yugami,
- Abstract要約: 知識グラフ(英: Knowledge Graph, KG)は、現実世界における実体と関係の図形表現である。
KGのスケールアップと完成の必要性は,KGE(Knowledge Graph Embedding)を自動生成する。
KGEモデルにおける複素数に対する共役パラメータを用いたパラメータ共有手法を提案する。
本手法は,最先端の非共役モデルに匹敵する性能を保ちつつ,メモリ効率を2倍に向上させる。
- 参考スコア(独自算出の注目度): 11.337803135227752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A Knowledge Graph (KG) is the directed graphical representation of entities and relations in the real world. KG can be applied in diverse Natural Language Processing (NLP) tasks where knowledge is required. The need to scale up and complete KG automatically yields Knowledge Graph Embedding (KGE), a shallow machine learning model that is suffering from memory and training time consumption issues. To mitigate the computational load, we propose a parameter-sharing method, i.e., using conjugate parameters for complex numbers employed in KGE models. Our method improves memory efficiency by 2x in relation embedding while achieving comparable performance to the state-of-the-art non-conjugate models, with faster, or at least comparable, training time. We demonstrated the generalizability of our method on two best-performing KGE models $5^{\bigstar}\mathrm{E}$ and $\mathrm{ComplEx}$ on five benchmark datasets.
- Abstract(参考訳): 知識グラフ(英: Knowledge Graph, KG)は、現実世界における実体と関係の図形表現である。
KGは知識を必要とする様々な自然言語処理(NLP)タスクに適用できる。
KGのスケールアップと完了の必要性は、メモリとトレーニング時間消費の問題に悩まされている浅い機械学習モデルであるKGE(Knowledge Graph Embedding)を自動的に生成する。
計算負荷を軽減するために,KGEモデルで用いられる複素数に対する共役パラメータを用いたパラメータ共有手法を提案する。
本手法は,最先端の非共役モデルに匹敵する性能を高速かつ少なくとも同等の訓練時間で達成しつつ,メモリ効率を2倍に向上させる。
我々は,5つのベンチマークデータセット上で,最高性能のKGEモデルである5^{\bigstar}\mathrm{E}$と$\mathrm{ComplEx}$の2つのKGEモデルに対して,本手法の一般化性を実証した。
関連論文リスト
- CL4KGE: A Curriculum Learning Method for Knowledge Graph Embedding [36.47838597326351]
知識グラフにおける3つの学習の難易度を測定するために、計量Zカウントを定義する。
この指標に基づいて,効率的なtextbfCurriculum textbfLearningに基づくトレーニング戦略である textbfCL4KGE を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:51:26Z) - A Comprehensive Study on Knowledge Graph Embedding over Relational
Patterns Based on Rule Learning [49.09125100268454]
KGE(Knowledge Graph Embedding)は、KGC(Knowledge Completion Graph)タスクを解決するための効果的なアプローチであることが証明されている。
関係パターンはKGEモデルの性能において重要な要素である。
我々は,KGEモデルの性能を様々な関係パターン上で向上させるトレーニングフリー手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T17:30:57Z) - Schema First! Learn Versatile Knowledge Graph Embeddings by Capturing
Semantics with MASCHInE [3.174882428337821]
近年,知識グラフ埋め込みモデル (KGEMs) が注目されている。
本研究では,RDF/S情報を活用するKGの小型改良版であるプロトグラフを設計する。
学習されたプロトグラフベースの埋め込みは、KGのセマンティクスをカプセル化することを目的としており、KGEの学習に利用することができる。
論文 参考訳(メタデータ) (2023-06-06T13:22:54Z) - Directed Acyclic Graph Factorization Machines for CTR Prediction via
Knowledge Distillation [65.62538699160085]
本稿では,既存の複雑な相互作用モデルから,知識蒸留によるCTR予測のための高次特徴相互作用を学習するための非巡回グラフファクトリゼーションマシン(KD-DAGFM)を提案する。
KD-DAGFMは、オンラインとオフラインの両方の実験において、最先端のFLOPの21.5%未満で最高の性能を達成する。
論文 参考訳(メタデータ) (2022-11-21T03:09:42Z) - GreenKGC: A Lightweight Knowledge Graph Completion Method [32.528770408502396]
GreenKGCは、知識グラフ内のエンティティ間の欠落した関係を見つけることを目的としている。
表現学習、特徴抽出、決定学習の3つのモジュールで構成されている。
低次元では、GreenKGCはほとんどのデータセットでSOTAメソッドより優れている。
論文 参考訳(メタデータ) (2022-08-19T03:33:45Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - MEKER: Memory Efficient Knowledge Embedding Representation for Link
Prediction and Question Answering [65.62309538202771]
知識グラフ(KG)は、事実を象徴的に構造化した記憶装置である。
KG埋め込みには、実世界の暗黙的な情報を必要とするNLPタスクで使用される簡潔なデータが含まれている。
リンク予測タスクとKGに基づく質問応答においてSOTAに比較可能な性能をもたらすメモリ効率のよいKG埋め込みモデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:47:03Z) - Sequence-to-Sequence Knowledge Graph Completion and Question Answering [8.207403859762044]
既製のエンコーダ・デコーダ変換器モデルは,スケーラブルで汎用的なKGEモデルとして機能することを示す。
我々は,KGリンク予測をシーケンス・ツー・シーケンス・タスクとして用い,従来のKGE手法による3つのスコアリングアプローチを自己回帰復号化と交換することで,これを実現する。
論文 参考訳(メタデータ) (2022-03-19T13:01:49Z) - A Simple But Powerful Graph Encoder for Temporal Knowledge Graph
Completion [13.047205680129094]
時間知識グラフ(TKG)のための単純だが強力なグラフエンコーダTARGCNを提案する。
我々のモデルは,最先端モデルと比較して,GDELTデータセットに対して42%以上の相対的な改善を達成できる。
ICEWS05-15データセットでは18.5%のパラメータで最強のベースラインを上回っている。
論文 参考訳(メタデータ) (2021-12-14T23:30:42Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。