論文の概要: SpaceE: Knowledge Graph Embedding by Relational Linear Transformation in
the Entity Space
- arxiv url: http://arxiv.org/abs/2204.10245v1
- Date: Thu, 21 Apr 2022 16:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 13:46:10.629188
- Title: SpaceE: Knowledge Graph Embedding by Relational Linear Transformation in
the Entity Space
- Title(参考訳): SpaceE: エンティティ空間における関係線形変換による知識グラフの埋め込み
- Authors: Jinxing Yu, Yunfeng Cai, Mingming Sun, Ping Li
- Abstract要約: 知識グラフでは、異なる実体は同じ実体と関係を持つことがある。
このような非射影的関係パターンは、既存の翻訳距離に基づくKGE法ではうまくモデル化できない。
線形変換として関係をモデル化するために,SpaceEと呼ばれる翻訳距離に基づくKGE手法を提案する。
- 参考スコア(独自算出の注目度): 29.298981273389217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Translation distance based knowledge graph embedding (KGE) methods, such as
TransE and RotatE, model the relation in knowledge graphs as translation or
rotation in the vector space. Both translation and rotation are injective; that
is, the translation or rotation of different vectors results in different
results. In knowledge graphs, different entities may have a relation with the
same entity; for example, many actors starred in one movie. Such a
non-injective relation pattern cannot be well modeled by the translation or
rotation operations in existing translation distance based KGE methods. To
tackle the challenge, we propose a translation distance-based KGE method called
SpaceE to model relations as linear transformations. The proposed SpaceE embeds
both entities and relations in knowledge graphs as matrices and SpaceE
naturally models non-injective relations with singular linear transformations.
We theoretically demonstrate that SpaceE is a fully expressive model with the
ability to infer multiple desired relation patterns, including symmetry,
skew-symmetry, inversion, Abelian composition, and non-Abelian composition.
Experimental results on link prediction datasets illustrate that SpaceE
substantially outperforms many previous translation distance based knowledge
graph embedding methods, especially on datasets with many non-injective
relations. The code is available based on the PaddlePaddle deep learning
platform https://www.paddlepaddle.org.cn.
- Abstract(参考訳): TransEやRotatEのような翻訳距離に基づく知識グラフ埋め込み(KGE)法は、知識グラフにおける関係をベクトル空間における翻訳や回転としてモデル化する。
翻訳と回転はともに単射であり、異なるベクトルの変換または回転は異なる結果をもたらす。
知識グラフでは、異なる実体は同一の実体と関係があるかもしれない。
このような非インジェクティブ関係パターンは、既存の翻訳距離に基づくkge法における変換や回転操作によってうまくモデル化できない。
この課題に対処するため、線形変換として関係をモデル化するSpaceEと呼ばれる翻訳距離に基づくKGE手法を提案する。
提案された空間は、知識グラフの実体と関係の両方を行列として埋め込み、特異線型変換に対する非インジェクティブ関係を自然にモデル化する。
理論的には、SpaceEは、対称性、スキュー対称性、反転、アベリア構成、非アベリア構成を含む複数の望ましい関係パターンを推論できる完全表現モデルである。
リンク予測データセットにおける実験の結果は、spaceeが以前の多くの翻訳距離に基づく知識グラフ埋め込み法、特に多くの非インジェクティブ関係を持つデータセットを実質的に上回っていることを示している。
コードはpaddlepaddle deep learning platform https://www.paddlepaddle.org.cn.で入手できる。
関連論文リスト
- Linearity of Relation Decoding in Transformer Language Models [82.47019600662874]
トランスフォーマー言語モデル(LM)で符号化された知識の多くは、関係性の観点から表現することができる。
関係のサブセットに対して、この計算は対象表現上の1つの線形変換によってよく近似されることを示す。
論文 参考訳(メタデータ) (2023-08-17T17:59:19Z) - PolarMOT: How Far Can Geometric Relations Take Us in 3D Multi-Object
Tracking? [62.997667081978825]
グラフのノードとして3D検出を符号化し、グラフエッジ上の局所極座標を用いてオブジェクト間の空間的および時間的対関係を符号化する。
これにより、グラフニューラルネットワークは、時間的および空間的相互作用を効果的に符号化することができる。
我々はnuScenesデータセット上に新しい最先端のデータセットを構築し、さらに重要なことに、私たちの手法であるPolarMOTが、異なる場所にわたって驚くほどよく一般化されていることを示す。
論文 参考訳(メタデータ) (2022-08-03T10:06:56Z) - HDGT: Heterogeneous Driving Graph Transformer for Multi-Agent Trajectory
Prediction via Scene Encoding [76.9165845362574]
運転シーンをノードやエッジの異なる異種グラフとしてモデル化するバックボーンを提案する。
空間的関係符号化では、ノードの座標とエッジの座標は局所ノード中心座標系に含まれる。
実験結果から,HDGTは軌道予測のタスクに対して最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2022-04-30T07:08:30Z) - TransHER: Translating Knowledge Graph Embedding with Hyper-Ellipsoidal
Restriction [14.636054717485207]
本稿では知識グラフ埋め込みのための新しいスコア関数TransHERを提案する。
我々のモデルでは、まずエンティティを2つの別々の超楕円体にマッピングし、その1つについて関係特異的な翻訳を行う。
実験結果から,TransHERは最先端のパフォーマンスを実現し,異なる領域やスケールのデータセットに一般化可能であることが示された。
論文 参考訳(メタデータ) (2022-04-27T22:49:27Z) - STaR: Knowledge Graph Embedding by Scaling, Translation and Rotation [20.297699026433065]
ビリニア法は知識グラフ埋め込み(KGE)において主流であり、実体と関係性の低次元表現を学習することを目的としている。
以前の研究では、主に非可換性のような6つの重要なパターンが発見されている。
上述の2つの部分からなるバイリニアモデルスケーリング翻訳・回転(STaR)を提案する。
論文 参考訳(メタデータ) (2022-02-15T02:06:22Z) - BiQUE: Biquaternionic Embeddings of Knowledge Graphs [9.107095800991333]
既存の知識グラフ埋め込み(KGE)は、コンパクトにマルチリレーショナル知識グラフ(KG)を符号化する
KGEモデルでは、KGの多元関係を完全にカバーするために、複数の幾何変換を統一することが重要である。
複数の幾何変換を統合するために二元数を用いた新しいモデルであるBiQUEを提案する。
論文 参考訳(メタデータ) (2021-09-29T13:05:32Z) - A Differential Geometry Perspective on Orthogonal Recurrent Models [56.09491978954866]
我々は微分幾何学からのツールと洞察を用いて、直交rnnの新しい視点を提供する。
直交RNNは、発散自由ベクトル場の空間における最適化と見なすことができる。
この観測に動機づけられて、ベクトル場全体の空間にまたがる新しいリカレントモデルの研究を行う。
論文 参考訳(メタデータ) (2021-02-18T19:39:22Z) - Motif Learning in Knowledge Graphs Using Trajectories Of Differential
Equations [14.279419014064047]
知識グラフ埋め込み(KGE)は、リンク予測タスクで有望なパフォーマンスを示している。
多くのKGEは平坦な幾何学を使い、複雑な構造を保存することができない。
正規微分方程式(ODE)の軌道上にKGのノードを埋め込む神経微分KGEを提案する。
論文 参考訳(メタデータ) (2020-10-13T20:53:17Z) - RatE: Relation-Adaptive Translating Embedding for Knowledge Graph
Completion [51.64061146389754]
複素空間における新たな重み付き積の上に構築された関係適応変換関数を提案する。
次に、関係適応型翻訳埋め込み(RatE)アプローチを示し、各グラフを3倍にスコアする。
論文 参考訳(メタデータ) (2020-10-10T01:30:30Z) - 5* Knowledge Graph Embeddings with Projective Transformations [13.723120574076127]
射影幾何学における知識グラフ埋め込みモデル(5*E)を提案する。
インバージョン、リフレクション、翻訳、回転、ホモセティといった複数の同時変換をサポートする。
これは、最も広く使われているリンク予測ベンチマークにおいて、既存のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-06-08T23:28:07Z) - Learning Bijective Feature Maps for Linear ICA [73.85904548374575]
画像データに適した既存の確率的深層生成モデル (DGM) は, 非線形ICAタスクでは不十分であることを示す。
そこで本研究では,2次元特徴写像と線形ICAモデルを組み合わせることで,高次元データに対する解釈可能な潜在構造を学習するDGMを提案する。
画像上のフローベースモデルや線形ICA、変分オートエンコーダよりも、高速に収束し、訓練が容易なモデルを作成し、教師なしの潜在因子発見を実現する。
論文 参考訳(メタデータ) (2020-02-18T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。