論文の概要: Markov Process-Based Graph Convolutional Networks for Entity Classification in Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2412.17438v1
- Date: Mon, 23 Dec 2024 09:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:53:58.407077
- Title: Markov Process-Based Graph Convolutional Networks for Entity Classification in Knowledge Graphs
- Title(参考訳): 知識グラフにおけるエンティティ分類のためのマルコフプロセスに基づくグラフ畳み込みネットワーク
- Authors: Johannes Mäkelburg, Yiwen Peng, Mehwish Alam, Tobias Weller, Maribel Acosta,
- Abstract要約: マルコフプロセスに基づくアーキテクチャをよく知られたグラフ畳み込みネットワーク(GCN)に導入する。
このエンドツーエンドネットワークは、マルコフプロセス内の知識グラフにおけるエンティティのクラスアフィリエイトの予測を学習する。
実験は、いくつかの研究されたアーキテクチャとデータセットにおいて、既存のモデルよりもパフォーマンスが向上したことを示している。
- 参考スコア(独自算出の注目度): 1.6252896527001486
- License:
- Abstract: Despite the vast amount of information encoded in Knowledge Graphs (KGs), information about the class affiliation of entities remains often incomplete. Graph Convolutional Networks (GCNs) have been shown to be effective predictors of complete information about the class affiliation of entities in KGs. However, these models do not learn the class affiliation of entities in KGs incorporating the complexity of the task, which negatively affects the models prediction capabilities. To address this problem, we introduce a Markov process-based architecture into well-known GCN architectures. This end-to-end network learns the prediction of class affiliation of entities in KGs within a Markov process. The number of computational steps is learned during training using a geometric distribution. At the same time, the loss function combines insights from the field of evidential learning. The experiments show a performance improvement over existing models in several studied architectures and datasets. Based on the chosen hyperparameters for the geometric distribution, the expected number of computation steps can be adjusted to improve efficiency and accuracy during training.
- Abstract(参考訳): 知識グラフ(KG)に符号化された膨大な量の情報にもかかわらず、エンティティのクラス関連に関する情報はしばしば不完全である。
グラフ畳み込みネットワーク(GCN)は、KGsにおけるエンティティのクラスアフィリエイトに関する完全な情報の効果的な予測因子であることが示されている。
しかしながら、これらのモデルは、モデルの予測能力に悪影響を及ぼすタスクの複雑さを取り入れたKGsにおけるエンティティのクラスアフィリエイトを学習しない。
この問題に対処するために、マルコフプロセスに基づくアーキテクチャをよく知られたGCNアーキテクチャに導入する。
このエンドツーエンドネットワークは、マルコフプロセス内のKGにおけるエンティティのクラスアフィリエイトの予測を学習する。
幾何分布を用いて、トレーニング中に計算ステップの数を学習する。
同時に、損失関数は、明らかな学習の分野からの洞察を組み合わせる。
この実験は、いくつかの研究されたアーキテクチャとデータセットにおいて、既存のモデルよりもパフォーマンスが向上したことを示している。
幾何分布に対する選択されたハイパーパラメータに基づいて、予測された計算ステップ数を調整して、トレーニング中の効率と精度を向上させることができる。
関連論文リスト
- Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Ensemble Learning for Graph Neural Networks [28.3650473174488]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための様々な分野で成功している。
本稿では,GNNの性能とロバスト性向上のためのアンサンブル学習手法の適用について検討する。
論文 参考訳(メタデータ) (2023-10-22T03:55:13Z) - Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - Efficient Relation-aware Neighborhood Aggregation in Graph Neural Networks via Tensor Decomposition [4.041834517339835]
グラフ畳み込みネットワーク(R-GCN)の集約関数にテンソル分解を組み込んだ新しい知識グラフを提案する。
我々のモデルは、関係型によって定義される低ランクテンソルの射影行列を用いて、隣り合う実体の表現を強化する。
我々は,グラフ処理に固有の1-k-kエンコーダ法のトレーニング制限を緩和するために,コントラスト学習にインスパイアされたトレーニング戦略を採用する。
論文 参考訳(メタデータ) (2022-12-11T19:07:34Z) - KGLM: Integrating Knowledge Graph Structure in Language Models for Link
Prediction [0.0]
我々は、異なるエンティティと関係型を区別することを学ぶ新しいエンティティ/リレーション埋め込み層を導入する。
知識グラフから抽出したトリプルを用いて、この追加埋め込み層を用いて言語モデルをさらに事前学習し、続いて標準微調整フェーズにより、ベンチマークデータセット上のリンク予測タスクに対して、新しい最先端のパフォーマンスが設定されることを示す。
論文 参考訳(メタデータ) (2022-11-04T20:38:12Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - KGNN: Distributed Framework for Graph Neural Knowledge Representation [38.080926752998586]
我々は,分散学習システムにおける表現学習のための知識データを完全に活用するために,KGNNと呼ばれる新しいフレームワークを開発した。
KGNNは、高次構造と属性情報を共同で探索することを目的とした、GNNベースのエンコーダと知識認識デコーダを備えている。
論文 参考訳(メタデータ) (2022-05-17T12:32:02Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。