論文の概要: ConvD: Attention Enhanced Dynamic Convolutional Embeddings for Knowledge
Graph Completion
- arxiv url: http://arxiv.org/abs/2312.07589v1
- Date: Mon, 11 Dec 2023 07:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 18:13:37.811817
- Title: ConvD: Attention Enhanced Dynamic Convolutional Embeddings for Knowledge
Graph Completion
- Title(参考訳): ConvD:知識グラフ補完のための動的畳み込みの注意力強化
- Authors: Wenbin Guo, Zhao Li, Xin Wang, Zirui Chen
- Abstract要約: 本稿では,知識グラフ補完のための動的畳み込み埋め込みモデルConvDを提案する。
提案手法は,最先端のベースライン法より一貫して優れている。
- 参考スコア(独自算出の注目度): 11.223893397502431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs generally suffer from incompleteness, which can be
alleviated by completing the missing information. Deep knowledge convolutional
embedding models based on neural networks are currently popular methods for
knowledge graph completion. However, most existing methods use external
convolution kernels and traditional plain convolution processes, which limits
the feature interaction capability of the model. In this paper, we propose a
novel dynamic convolutional embedding model ConvD for knowledge graph
completion, which directly reshapes the relation embeddings into multiple
internal convolution kernels to improve the external convolution kernels of the
traditional convolutional embedding model. The internal convolution kernels can
effectively augment the feature interaction between the relation embeddings and
entity embeddings, thus enhancing the model embedding performance. Moreover, we
design a priori knowledge-optimized attention mechanism, which can assign
different contribution weight coefficients to multiple relation convolution
kernels for dynamic convolution to improve the expressiveness of the model
further. Extensive experiments on various datasets show that our proposed model
consistently outperforms the state-of-the-art baseline methods, with average
improvements ranging from 11.30\% to 16.92\% across all model evaluation
metrics. Ablation experiments verify the effectiveness of each component module
of the ConvD model.
- Abstract(参考訳): 知識グラフは一般に不完全性に苦しめられ、欠落した情報を完遂することで軽減される。
ニューラルネットワークに基づく深層知識畳み込みモデルは現在、知識グラフ補完の一般的な方法である。
しかしながら、既存のほとんどのメソッドは外部の畳み込みカーネルと従来の平めの畳み込みプロセスを使用し、モデルの特徴的相互作用能力を制限する。
本稿では,従来の畳み込みモデルの外部畳み込みカーネルを改善するために,複数の畳み込みカーネルへの組込みを直接形作る知識グラフ補完のための新しい動的畳み込みモデルを提案する。
内部畳み込みカーネルは、関係埋め込みとエンティティ埋め込みとの間の機能相互作用を効果的に増強し、モデル埋め込み性能を向上させる。
さらに,複数の関係畳み込みカーネルに異なる寄与重み係数を割り当てて動的畳み込みを行い,モデルの表現性をさらに向上する事前知識最適化型注意機構を設計する。
各種データセットに対する大規模な実験により,提案したモデルは,各モデル評価指標の11.30\%から16.92\%まで,最先端のベースライン法よりも一貫して優れていた。
アブレーション実験は、ConvDモデルの各コンポーネントモジュールの有効性を検証する。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Neural Flow Diffusion Models: Learnable Forward Process for Improved Diffusion Modelling [2.1779479916071067]
より広い範囲のプロセスをサポートすることで拡散モデルを強化する新しいフレームワークを提案する。
また,前処理を学習するための新しいパラメータ化手法を提案する。
結果はNFDMの汎用性と幅広い応用の可能性を評価する。
論文 参考訳(メタデータ) (2024-04-19T15:10:54Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Generative Learning of Continuous Data by Tensor Networks [45.49160369119449]
本稿では,連続データのためのテンソルネットワーク生成モデルについて紹介する。
我々は、このモデルの性能を、いくつかの合成および実世界のデータセットでベンチマークする。
本手法は, 急速に成長する生成学習分野において, 量子インスピレーション法の有効性を示す重要な理論的, 実証的な証拠を与える。
論文 参考訳(メタデータ) (2023-10-31T14:37:37Z) - Dynamic Tensor Decomposition via Neural Diffusion-Reaction Processes [24.723536390322582]
テンソル分解は マルチウェイデータ解析の 重要なツールです
動的EMbedIngs fOr Dynamic Algorithm dEcomposition (DEMOTE)を提案する。
シミュレーション研究と実世界の応用の両方において,本手法の利点を示す。
論文 参考訳(メタデータ) (2023-10-30T15:49:45Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - ProjB: An Improved Bilinear Biased ProjE model for Knowledge Graph
Completion [1.5576879053213302]
この研究は、計算の複雑さが低く、モデル改善の可能性が高いため、ProjE KGEを改善する。
FB15KやWN18のようなベンチマーク知識グラフ(KG)の実験結果から、提案手法はエンティティ予測タスクにおける最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-15T18:18:05Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Kernel-Based Models for Influence Maximization on Graphs based on
Gaussian Process Variance Minimization [9.357483974291899]
グラフ上の新しい影響モデル(IM)の導入と検討を行う。
データ駆動アプローチは、このIMモデルの適切なカーネルを決定するために適用することができる。
この分野でコストのかかるモンテカルロシミュレーションに依存するモデルと比較して、我々のモデルはシンプルでコスト効率のよい更新戦略を可能にする。
論文 参考訳(メタデータ) (2021-03-02T08:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。