論文の概要: Learning Structured Embeddings of Knowledge Graphs with Adversarial
Learning Framework
- arxiv url: http://arxiv.org/abs/2004.07265v1
- Date: Wed, 15 Apr 2020 18:01:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 03:30:54.675567
- Title: Learning Structured Embeddings of Knowledge Graphs with Adversarial
Learning Framework
- Title(参考訳): 逆学習フレームワークを用いた知識グラフの構造化埋め込み学習
- Authors: Jiehang Zeng, Lu Liu and Xiaoqing Zheng
- Abstract要約: 本稿では,知識グラフの実体と関係を連続ベクトル空間に埋め込む学習手法を提案する。
実験により,従来の関係学習モデルにおいて,リンク予測と三重分類の両方において有意な差が生じることを示した。
- 参考スコア(独自算出の注目度): 12.284731425813343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many large-scale knowledge graphs are now available and ready to provide
semantically structured information that is regarded as an important resource
for question answering and decision support tasks. However, they are built on
rigid symbolic frameworks which makes them hard to be used in other intelligent
systems. We present a learning method using generative adversarial architecture
designed to embed the entities and relations of the knowledge graphs into a
continuous vector space. A generative network (GN) takes two elements of a
(subject, predicate, object) triple as input and generates the vector
representation of the missing element. A discriminative network (DN) scores a
triple to distinguish a positive triple from those generated by GN. The
training goal for GN is to deceive DN to make wrong classification. When
arriving at a convergence, GN recovers the training data and can be used for
knowledge graph completion, while DN is trained to be a good triple classifier.
Unlike few previous studies based on generative adversarial architectures, our
GN is able to generate unseen instances while they just use GN to better choose
negative samples (already existed) for DN. Experiments demonstrate our method
can improve classical relational learning models (e.g.TransE) with a
significant margin on both the link prediction and triple classification tasks.
- Abstract(参考訳): 多くの大規模知識グラフが利用可能となり、質問応答および意思決定支援タスクの重要なリソースとみなされる意味的に構造化された情報を提供する準備ができている。
しかし、それらは厳格なシンボリックフレームワーク上に構築されており、他のインテリジェントシステムでの使用を困難にしている。
本稿では,知識グラフの実体と関係を連続ベクトル空間に埋め込むために,生成的対角的アーキテクチャを用いた学習手法を提案する。
生成ネットワーク(GN)は、入力として(対象、述語、対象)の2つの要素を取り、欠落した要素のベクトル表現を生成する。
判別ネットワーク(DN)は、GNが生成したものと正の三重項を区別するために三重項をスコアする。
GNのトレーニング目標はDNを騙して間違った分類をすることです。
収束に着くと、GNはトレーニングデータを回復し、知識グラフの補完に使用できる。
生成的敵対的アーキテクチャに基づく以前の研究とは異なり、我々のGNは未知のインスタンスを生成し、GNを使ってDNの負のサンプル(すでに存在する)を選択できる。
実験により,従来の関係学習モデル(TransEなど)を,リンク予測と三重分類の両方において有意差で改善できることを示した。
関連論文リスト
- DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - SKDCGN: Source-free Knowledge Distillation of Counterfactual Generative
Networks using cGANs [0.7829352305480285]
我々は、知識蒸留(KD)を用いた知識伝達を試みるSKDCGNという新しい作品を提案する。
本稿では,ImageNetやMNISTといった最先端のデータセットを用いて提案手法の有効性を示す。
さらに,本論文ではCGNの構成機構について詳しく検討する。
論文 参考訳(メタデータ) (2022-08-08T15:56:49Z) - GNNRank: Learning Global Rankings from Pairwise Comparisons via Directed
Graph Neural Networks [68.61934077627085]
本稿では,グラフ埋め込みを学習可能なGNNと互換性のあるモデリングフレームワークであるGNNRankを紹介する。
既存の手法と比較して,我々の手法が競争力があり,しばしば優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-02-01T04:19:50Z) - Noise-robust Graph Learning by Estimating and Leveraging Pairwise
Interactions [123.07967420310796]
本稿では,グラフ上のノイズノード分類のためのペアワイズフレームワークを提案することにより,そのギャップを埋める。
PI-GNNは、ノイズの多いノードクラスラベルからのポイントワイズ学習に加えて、PIを一次学習プロキシとして依存している。
提案するフレームワークPI-GNNは,(1)PIラベルを適応的に推定する信頼度を考慮したPI推定モデル,(2)PIラベルを推定する疎結合トレーニング手法の2つの新しい構成要素に寄与する。
論文 参考訳(メタデータ) (2021-06-14T14:23:08Z) - Learning Intents behind Interactions with Knowledge Graph for
Recommendation [93.08709357435991]
知識グラフ(KG)は、推薦システムにおいてますます重要な役割を果たす。
既存のGNNベースのモデルは、きめ細かいインテントレベルでのユーザ項目関係の特定に失敗します。
本稿では,新しいモデルである知識グラフベースインテントネットワーク(kgin)を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:21:36Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Pointer Graph Networks [48.44209547013781]
グラフニューラルネットワーク(GNN)は通常、前もって知られていると仮定される静的グラフに適用される。
Pointer Graph Networks (PGNs) モデル一般化能力を改善するために、追加の推論エッジを備えた拡張セットまたはグラフ。
PGNは各ノードが別のノードを動的に指し、メッセージがこれらのポインタを渡ることを可能にする。
論文 参考訳(メタデータ) (2020-06-11T12:52:31Z) - A Collective Learning Framework to Boost GNN Expressiveness [25.394456460032625]
教師付きおよび半教師付き設定におけるグラフニューラルネットワーク(GNN)を用いた帰納ノード分類の課題を考察する。
本稿では,既存のGNNの表現力を高めるための一般集団学習手法を提案する。
実世界の5つのネットワークデータセットの性能評価を行い、ノード分類精度が一貫した顕著な改善を示した。
論文 参考訳(メタデータ) (2020-03-26T22:07:28Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。