論文の概要: Knowledge Generation -- Variational Bayes on Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2101.08857v1
- Date: Thu, 21 Jan 2021 21:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 08:04:56.555326
- Title: Knowledge Generation -- Variational Bayes on Knowledge Graphs
- Title(参考訳): 知識生成 --知識グラフ上の変分ベイズ
- Authors: Florian Wolf
- Abstract要約: この論文は、現実世界の知識グラフの表現に関するVari Auto-Encoder (VAE) の概念実証である。
生成グラフへのアプローチの成功に触発されて,本モデルである変分オートエンコーダ(rgvae)の能力を評価する。
RGVAEはリンク予測に基づいて評価される。
2つのFB15K-237およびWN18RRデータセットの平均相互ランク(MRR)スコアを比較します。
2次実験における潜伏空間について検討する:まず、2つの三重項の潜伏表現の間の線型、そして各三重項の探索
- 参考スコア(独自算出の注目度): 0.685316573653194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This thesis is a proof of concept for the potential of Variational
Auto-Encoder (VAE) on representation learning of real-world Knowledge Graphs
(KG). Inspired by successful approaches to the generation of molecular graphs,
we evaluate the capabilities of our model, the Relational Graph Variational
Auto-Encoder (RGVAE). The impact of the modular hyperparameter choices,
encoding through graph convolutions, graph matching and latent space prior, is
compared. The RGVAE is first evaluated on link prediction. The mean reciprocal
rank (MRR) scores on the two datasets FB15K-237 and WN18RR are compared to the
embedding-based model DistMult. A variational DistMult and a RGVAE without
latent space prior constraint are implemented as control models. The results
show that between different settings, the RGVAE with relaxed latent space,
scores highest on both datasets, yet does not outperform the DistMult. Further,
we investigate the latent space in a twofold experiment: first, linear
interpolation between the latent representation of two triples, then the
exploration of each latent dimension in a $95\%$ confidence interval. Both
interpolations show that the RGVAE learns to reconstruct the adjacency matrix
but fails to disentangle. For the last experiment we introduce a new validation
method for the FB15K-237 data set. The relation type-constrains of generated
triples are filtered and matched with entity types. The observed rate of valid
generated triples is insignificantly higher than the random threshold. All
generated and valid triples are unseen. A comparison between different latent
space priors, using the $\delta$-VAE method, reveals a decoder collapse.
Finally we analyze the limiting factors of our approach compared to molecule
generation and propose solutions for the decoder collapse and successful
representation learning of multi-relational KGs.
- Abstract(参考訳): この論文は、現実世界の知識グラフ(KG)の表現学習における変分オートエンコーダ(VAE)の可能性の実証である。
分子グラフの生成に成功しているアプローチに着想を得て,rgvae(relational graph variational auto-encoder)というモデルの性能評価を行った。
グラフ畳み込み、グラフマッチング、潜在空間を事前にエンコードするモジュラーハイパーパラメータの選択の影響を比較する。
RGVAEはリンク予測に基づいて評価される。
2つのデータセットFB15K-237とWN18RRの平均相互ランク(MRR)スコアは、埋め込みベースのモデルDistMultと比較される。
遅延空間事前制約のない変分DistMultとRGVAEを制御モデルとして実装する。
その結果、異なる設定の間、緩和された潜在空間を持つRGVAEは、両方のデータセットで最高となるが、DistMultを上回りません。
さらに, 2次元実験において, 2 つの三重項の潜在表現間の線形補間を行い, それぞれの潜在次元を 95 % の信頼区間で探索する。
どちらの補間も、RGVAEは隣接行列の再構築を学ぶが、解離しないことを示している。
最後に,FB15K-237データセットに対する新しい検証手法を提案する。
生成されたトリプルの関係型コンストレインはフィルタされ、エンティティタイプにマッチする。
有意な三重項の観測率はランダムしきい値よりも著しく高い。
生成した三重項と有効三重項は見当たらない。
$\delta$-VAE法を用いて、異なる潜在空間の比較を行ったところ、デコーダの崩壊が判明した。
最後に,分子生成に対するアプローチの限界因子を解析し,デコーダの崩壊とマルチリレーショナルKGの表現学習を成功させる手法を提案する。
関連論文リスト
- Causal Recurrent Variational Autoencoder for Medical Time Series
Generation [12.82521953179345]
時系列xからGranger因果グラフを学習する新しい生成モデルであるCR-VAEを提案する。
我々のモデルは、定性的かつ定量的に、最先端の時系列生成モデルよりも一貫して優れている。
論文 参考訳(メタデータ) (2023-01-16T19:13:33Z) - Heterogenous Ensemble of Models for Molecular Property Prediction [55.91865861896012]
分子の異なるモーダル性を考える手法を提案する。
これらのモデルをHuberRegressorでアンサンブルします。
これにより、OGB Large-Scale Challenge (2022)の2textsuperscriptndエディションの勝利のソリューションが得られる。
論文 参考訳(メタデータ) (2022-11-20T17:25:26Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Parallel Structure from Motion for UAV Images via Weighted Connected
Dominating Set [5.17395782758526]
本稿では,クラスタマージのための大域的モデルを抽出し,効率よく正確なUAV画像配向を実現するために並列SfMソリューションを設計するアルゴリズムを提案する。
実験の結果,提案した並列SfMは17.4倍の効率向上と相対配向精度が得られることがわかった。
論文 参考訳(メタデータ) (2022-06-23T06:53:06Z) - ExpressivE: A Spatio-Functional Embedding For Knowledge Graph Completion [68.8204255655161]
ExpressivEは完全な表現機能埋め込みモデルである。
仮想三重空間 $bbR2d$ に超平行グラフとして、点と関係として一対の実体を埋め込む。
最先端のモデルと競合し、WN18RRよりはるかに優れています。
論文 参考訳(メタデータ) (2022-06-08T23:34:39Z) - Optimized latent-code selection for explainable conditional
text-to-image GANs [8.26410341981427]
本稿では,条件付きテキスト・ツー・イメージGANモデルの潜時空間と意味空間を深く検討する様々な手法を提案する。
本稿では,線形SVMを用いて,優れた潜在コードを見つけるためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-27T03:12:55Z) - T-LoHo: A Bayesian Regularization Model for Structured Sparsity and
Smoothness on Graphs [0.0]
グラフ構造化データでは、構造化されたスパーシリティと滑らかさが団結する傾向にある。
グラフィカルな関係を持つ高次元パラメータに先立って提案する。
構造された空間と滑らかさを同時に検出するために使用します。
論文 参考訳(メタデータ) (2021-07-06T10:10:03Z) - Comprehensive Graph-conditional Similarity Preserving Network for
Unsupervised Cross-modal Hashing [97.44152794234405]
教師なしクロスモーダルハッシュ(UCMH)は近年ホットトピックとなっている。
本稿では,dgcpn(deep graph-neighbor coherence preservation network)を考案する。
DGCPNは3種類のデータ類似性を利用して、損失を保存する包括的な類似性を管理する。
論文 参考訳(メタデータ) (2020-12-25T07:40:59Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。