論文の概要: NagE: Non-Abelian Group Embedding for Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2005.10956v3
- Date: Thu, 3 Sep 2020 14:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 08:40:03.031248
- Title: NagE: Non-Abelian Group Embedding for Knowledge Graphs
- Title(参考訳): NagE: 知識グラフのための非アベリアグループ埋め込み
- Authors: Tong Yang, Long Sha, Pengyu Hong
- Abstract要約: 組込みモデルの設計には,グループベースの組込みフレームワークが不可欠であることを示す。
理論分析により,グループ理論に基づく知識グラフ埋め込みフレームワークを提案する。
2つのインスタンス化例に関連付けられた埋め込みモデルを構築するための一般的なレシピを提供する。
- 参考スコア(独自算出の注目度): 14.545770519120898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrated the existence of a group algebraic structure hidden in
relational knowledge embedding problems, which suggests that a group-based
embedding framework is essential for designing embedding models. Our
theoretical analysis explores merely the intrinsic property of the embedding
problem itself hence is model-independent. Motivated by the theoretical
analysis, we have proposed a group theory-based knowledge graph embedding
framework, in which relations are embedded as group elements, and entities are
represented by vectors in group action spaces. We provide a generic recipe to
construct embedding models associated with two instantiating examples: SO3E and
SU2E, both of which apply a continuous non-Abelian group as the relation
embedding. Empirical experiments using these two exampling models have shown
state-of-the-art results on benchmark datasets.
- Abstract(参考訳): 関係知識埋め込み問題に隠れた群代数構造の存在を実証し, 組込みモデルの設計にグループベース埋め込みフレームワークが不可欠であることを示唆した。
我々の理論的解析は、埋め込み問題自体の本質的な性質のみを探求するため、モデル非依存である。
理論解析に動機づけられ, 関係を群要素として埋め込み, 実体を群作用空間内のベクトルとして表現する, 群理論に基づく知識グラフ埋め込みフレームワークを提案した。
我々は2つのインスタンス化例(SO3EとSU2E)に関連する埋め込みモデルを構築するための一般的なレシピを提供する。
これら2つの試験管モデルを用いた実証実験は、ベンチマークデータセット上で最先端の結果を示している。
関連論文リスト
- Compositional Structures in Neural Embedding and Interaction Decompositions [101.40245125955306]
ニューラルネットワークにおけるベクトル埋め込みにおける線形代数構造間の基本的な対応について述べる。
相互作用分解」の観点から構成構造の特徴づけを導入する。
モデルの表現の中にそのような構造が存在するためには、必要かつ十分な条件を確立する。
論文 参考訳(メタデータ) (2024-07-12T02:39:50Z) - Discovering Abstract Symbolic Relations by Learning Unitary Group Representations [7.303827428956944]
記号演算完了(SOC)の原理的アプローチについて検討する。
SOCは離散記号間の抽象的関係をモデル化する際、ユニークな挑戦となる。
SOCは最小限のモデル(双線型写像)で、新しい分解アーキテクチャで効率的に解けることを実証する。
論文 参考訳(メタデータ) (2024-02-26T20:18:43Z) - HiPerformer: Hierarchically Permutation-Equivariant Transformer for Time
Series Forecasting [56.95572957863576]
本稿では,同じ群を構成する成分間の関係と群間の関係を考察した階層的置換同変モデルを提案する。
実世界のデータを用いた実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-05-14T05:11:52Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - Unifying Causal Inference and Reinforcement Learning using Higher-Order
Category Theory [4.119151469153588]
本稿では、強化学習における因果関係モデルと予測状態表現モデルの構造発見のための統一的な定式化を提案する。
具体的には、単純なオブジェクトを用いて、両方の設定で構造発見をモデル化する。
論文 参考訳(メタデータ) (2022-09-13T19:04:18Z) - ConE: Cone Embeddings for Multi-Hop Reasoning over Knowledge Graphs [73.86041481470261]
Cone Embeddings (ConE) は、接続、解離、否定を扱える最初の幾何学ベースのクエリ埋め込みモデルである。
ConEは、ベンチマークデータセットの既存の最先端メソッドを大幅に上回る。
論文 参考訳(メタデータ) (2021-10-26T14:04:02Z) - Double-Scale Self-Supervised Hypergraph Learning for Group
Recommendation [35.841350982832545]
グループレコメンデーションは、データスパシティの問題に深刻な問題を抱えています。
本稿では,グループ推薦のための自己教師付きハイパーグラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-09T12:19:49Z) - Unsupervised Knowledge Graph Alignment by Probabilistic Reasoning and
Semantic Embedding [22.123001954919893]
本稿では,確率論的推論とセマンティック埋め込みに基づくPRASEという反復的フレームワークを提案する。
PRASEフレームワークは、異なる埋め込みベースのモデルと互換性があり、複数のデータセットの実験では、その最先端性能が実証されている。
論文 参考訳(メタデータ) (2021-05-12T11:27:46Z) - GroupifyVAE: from Group-based Definition to VAE-based Unsupervised
Representation Disentanglement [91.9003001845855]
他の誘導バイアスを導入しないと、VAEベースの非監視的非絡み合いは実現できない。
グループ理論に基づく定義から導かれる制約を非確率的帰納的バイアスとして活用し,vaeに基づく教師なし不連続に対処する。
提案手法の有効性を検証するために,5つのデータセット上で,vaeベースモデルが最も目立つ1800モデルをトレーニングした。
論文 参考訳(メタデータ) (2021-02-20T09:49:51Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。