論文の概要: SKGE: Spherical Knowledge Graph Embedding with Geometric Regularization
- arxiv url: http://arxiv.org/abs/2511.02460v1
- Date: Tue, 04 Nov 2025 10:40:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.953689
- Title: SKGE: Spherical Knowledge Graph Embedding with Geometric Regularization
- Title(参考訳): SKGE: 幾何学的正規化を組み込んだ球面知識グラフ
- Authors: Xuan-Truong Quan, Xuan-Son Quan, Duc Do Minh, Vinh Nguyen Van,
- Abstract要約: SKGE(Spherical Knowledge Graph Embedding)は、実体表現をコンパクトな多様体(超球)に制約するモデルである。
我々は、SKGEが強いユークリッドのTransEよりも一貫して著しく優れていることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph embedding (KGE) has become a fundamental technique for representation learning on multi-relational data. Many seminal models, such as TransE, operate in an unbounded Euclidean space, which presents inherent limitations in modeling complex relations and can lead to inefficient training. In this paper, we propose Spherical Knowledge Graph Embedding (SKGE), a model that challenges this paradigm by constraining entity representations to a compact manifold: a hypersphere. SKGE employs a learnable, non-linear Spherization Layer to map entities onto the sphere and interprets relations as a hybrid translate-then-project transformation. Through extensive experiments on three benchmark datasets, FB15k-237, CoDEx-S, and CoDEx-M, we demonstrate that SKGE consistently and significantly outperforms its strong Euclidean counterpart, TransE, particularly on large-scale benchmarks such as FB15k-237 and CoDEx-M, demonstrating the efficacy of the spherical geometric prior. We provide an in-depth analysis to reveal the sources of this advantage, showing that this geometric constraint acts as a powerful regularizer, leading to comprehensive performance gains across all relation types. More fundamentally, we prove that the spherical geometry creates an "inherently hard negative sampling" environment, naturally eliminating trivial negatives and forcing the model to learn more robust and semantically coherent representations. Our findings compellingly demonstrate that the choice of manifold is not merely an implementation detail but a fundamental design principle, advocating for geometric priors as a cornerstone for designing the next generation of powerful and stable KGE models.
- Abstract(参考訳): 知識グラフ埋め込み(KGE)は,マルチリレーショナルデータ上での表現学習の基本的な技術となっている。
TransEのような多くのセミナルモデルは有界ユークリッド空間で作用し、複雑な関係をモデル化する際固有の制限を示し、非効率な訓練をもたらす。
本稿では, 球面知識グラフ埋め込み(SKGE)を提案する。これは, 実体表現をコンパクトな多様体, ハイパースフィアに制約することで, このパラダイムに挑戦するモデルである。
SKGEは学習可能な非線形球面化層を用いて、エンティティを球面にマッピングし、関係をハイブリッド変換-列-プロジェクト変換として解釈する。
我々は、FB15k-237、CoDEx-S、CoDEx-Mの3つのベンチマークデータセットに関する広範な実験を通じて、SKGEが一貫して、特にFB15k-237やCoDEx-Mのような大規模ベンチマークにおいて、その強いユークリッドのTransEよりもはるかに優れていることを示した。
我々は、この利点の源泉を明らかにするために、この幾何学的制約が強力な正則化器として機能し、全ての関係型に対して包括的な性能向上をもたらすことを示す。
より根本的には、球面幾何学が「本質的に強い負のサンプリング」環境を生み出し、自然に自明な負を排除し、モデルにより堅牢でセマンティックなコヒーレントな表現を学習させる。
我々の発見は、多様体の選択は単なる実装の詳細ではなく、基本設計原理であり、次世代の強力で安定したKGEモデルの設計の基盤として幾何学的先行を提唱していることを確実に示している。
関連論文リスト
- Learning Geometry: A Framework for Building Adaptive Manifold Models through Metric Optimization [8.201374511929538]
本稿では,従来のパラメータ最適化を超越した機械学習のパラダイムを提案する。
既定位相を持つ多様体上の計量テンソル場を最適化することにより、モデル空間の幾何学的構造を動的に形成する。
この研究は、その幾何学とトポロジーを自律的に進化させることができる完全にダイナミックな「メタ・ラーナー」を構築するための確固たる基礎を築いた。
論文 参考訳(メタデータ) (2025-10-30T01:53:32Z) - Follow the Energy, Find the Path: Riemannian Metrics from Energy-Based Models [63.331590876872944]
本稿では,事前学習したエネルギーベースモデルから直接リーマン計量を導出する手法を提案する。
これらの測度は空間的に異なる距離を定義し、測地学の計算を可能にする。
EBM由来のメトリクスは、確立されたベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-05-23T12:18:08Z) - Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - Block-Diagonal Orthogonal Relation and Matrix Entity for Knowledge Graph Embedding [5.463034010805521]
知識グラフ埋め込み (KGE) は、実体の低次元表現と、行方不明な事実を予測するための関係を学習することである。
我々は,エンティティの行列と関係のブロック対角行列を用いた新しいKGEモデルOrthogonalEを紹介する。
実験結果から,我々の新しいKGEモデルOrthogonalEは汎用的かつ柔軟であり,最先端のKGEモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-01-11T15:13:00Z) - A Comprehensive Study on Knowledge Graph Embedding over Relational
Patterns Based on Rule Learning [49.09125100268454]
KGE(Knowledge Graph Embedding)は、KGC(Knowledge Completion Graph)タスクを解決するための効果的なアプローチであることが証明されている。
関係パターンはKGEモデルの性能において重要な要素である。
我々は,KGEモデルの性能を様々な関係パターン上で向上させるトレーニングフリー手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T17:30:57Z) - Geometry Interaction Knowledge Graph Embeddings [153.69745042757066]
ユークリッド空間,双曲空間,超球空間間の空間構造を対話的に学習する幾何学的相互作用知識グラフ埋め込み(GIE)を提案する。
提案したGIEは、よりリッチなリレーショナル情報、モデルキー推論パターンをキャプチャし、エンティティ間の表現的セマンティックマッチングを可能にする。
論文 参考訳(メタデータ) (2022-06-24T08:33:43Z) - ConE: Cone Embeddings for Multi-Hop Reasoning over Knowledge Graphs [73.86041481470261]
Cone Embeddings (ConE) は、接続、解離、否定を扱える最初の幾何学ベースのクエリ埋め込みモデルである。
ConEは、ベンチマークデータセットの既存の最先端メソッドを大幅に上回る。
論文 参考訳(メタデータ) (2021-10-26T14:04:02Z) - Self-supervised Geometric Perception [96.89966337518854]
自己教師付き幾何知覚(self-supervised geometric perception)は、基底幾何モデルラベルなしで対応マッチングのための特徴記述子を学ぶためのフレームワークである。
また,SGPは,地上トラスラベルを用いて訓練した教師付きオークルよりも同等か優れる最先端性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:34:43Z) - Motif Learning in Knowledge Graphs Using Trajectories Of Differential
Equations [14.279419014064047]
知識グラフ埋め込み(KGE)は、リンク予測タスクで有望なパフォーマンスを示している。
多くのKGEは平坦な幾何学を使い、複雑な構造を保存することができない。
正規微分方程式(ODE)の軌道上にKGのノードを埋め込む神経微分KGEを提案する。
論文 参考訳(メタデータ) (2020-10-13T20:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。