論文の概要: Updating Embeddings for Dynamic Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2109.10896v1
- Date: Wed, 22 Sep 2021 17:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:41:25.229745
- Title: Updating Embeddings for Dynamic Knowledge Graphs
- Title(参考訳): 動的知識グラフのための埋め込みの更新
- Authors: Christopher Wewer, Florian Lemmerich and Michael Cochez
- Abstract要約: 完全再トレーニングを必要としない埋め込み更新について検討し、実知識グラフ上の各種埋め込みモデルと組み合わせて評価する。
従来の埋め込みのトレーニングを継続し、追加および削除部分のみを最適化するエポックとインターリーブすると、リンク予測に使用される典型的なメトリクスの点から良い結果が得られる。
- 参考スコア(独自算出の注目度): 0.9883261192383611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data in Knowledge Graphs often represents part of the current state of the
real world. Thus, to stay up-to-date the graph data needs to be updated
frequently. To utilize information from Knowledge Graphs, many state-of-the-art
machine learning approaches use embedding techniques. These techniques
typically compute an embedding, i.e., vector representations of the nodes as
input for the main machine learning algorithm. If a graph update occurs later
on -- specifically when nodes are added or removed -- the training has to be
done all over again. This is undesirable, because of the time it takes and also
because downstream models which were trained with these embeddings have to be
retrained if they change significantly. In this paper, we investigate embedding
updates that do not require full retraining and evaluate them in combination
with various embedding models on real dynamic Knowledge Graphs covering
multiple use cases. We study approaches that place newly appearing nodes
optimally according to local information, but notice that this does not work
well. However, we find that if we continue the training of the old embedding,
interleaved with epochs during which we only optimize for the added and removed
parts, we obtain good results in terms of typical metrics used in link
prediction. This performance is obtained much faster than with a complete
retraining and hence makes it possible to maintain embeddings for dynamic
Knowledge Graphs.
- Abstract(参考訳): 知識グラフ内のデータは、しばしば現実世界の現在の状態の一部を表す。
したがって、最新の状態を維持するには、グラフデータを頻繁に更新する必要がある。
Knowledge Graphsからの情報を活用するために、最先端の機械学習アプローチの多くは埋め込み技術を使用している。
これらの技術は一般的に埋め込み、すなわちメイン機械学習アルゴリズムの入力としてノードのベクトル表現を計算する。
グラフ更新が後で発生する場合、特にノードの追加や削除を行う場合には、トレーニングをもう一度やり直す必要があります。
時間が掛かっていることと、これらの埋め込みでトレーニングされた下流モデルが大きく変化した場合に再トレーニングされる必要があるため、これは望ましくない。
本稿では,フルリトレーニングを必要としない埋め込み更新について検討し,複数のユースケースをカバーする実動的知識グラフ上の各種埋め込みモデルと組み合わせて評価する。
本研究では,新たに出現するノードをローカル情報に基づいて最適に配置する手法について検討する。
しかし, 従来の埋め込みのトレーニングを継続し, 追加および削除部分のみを最適化するエポックとインターリーブすると, リンク予測に使用される典型的な指標でよい結果が得られることがわかった。
このパフォーマンスは完全なリトレーニングよりもずっと高速に得られ、動的知識グラフへの埋め込みを維持することができる。
関連論文リスト
- State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Towards Real-Time Temporal Graph Learning [10.647431919265346]
本稿では、時間グラフ構築を行い、低次元ノード埋め込みを生成し、オンライン環境でニューラルネットワークモデルを訓練するエンドツーエンドグラフ学習パイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-08T22:14:31Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Transformation of Node to Knowledge Graph Embeddings for Faster Link
Prediction in Social Networks [2.458658951393896]
ニューラルネットワークの最近の進歩は、リンク予測、ノード分類、ノードクラスタリング、ノードレコメンデーションといった一般的なグラフ問題を解決している。
本研究では,ランダムウォーク法から得られるノード埋め込みを,計算コストを増大させることなく,知識グラフ法から直接得られる埋め込みに変換する変換モデルについて検討する。
論文 参考訳(メタデータ) (2021-11-17T04:57:41Z) - Learning to Evolve on Dynamic Graphs [5.1521870302904125]
Learning to Evolve on Dynamic Graphs (LEDG)は、グラフ情報と時間情報を共同で学習する新しいアルゴリズムである。
LEDGはモデルに依存しないため、動的グラフ上でメッセージパッシングベースのグラフニューラルネットワーク(GNN)をトレーニングすることができる。
論文 参考訳(メタデータ) (2021-11-13T04:09:30Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z) - About Graph Degeneracy, Representation Learning and Scalability [2.029783382155471]
ウォークベースグラフ表現学習アルゴリズムの時間とメモリ消費を削減するために,Kコア分解を利用した2つの手法を提案する。
提案手法の有効性を,いくつかの学術的データセットを用いて評価した。
論文 参考訳(メタデータ) (2020-09-04T09:39:43Z) - Time-varying Graph Representation Learning via Higher-Order Skip-Gram
with Negative Sampling [0.456877715768796]
我々は,スキップグラム埋め込み手法が行列分解を暗黙的に行うという事実に基づいて構築する。
負のサンプリングを持つ高次スキップグラムは、ノードと時間の役割を乱すことができることを示す。
提案手法を時間分解型対面近接データを用いて実証的に評価し,学習した時間変化グラフ表現が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-25T12:04:48Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。