論文の概要: DeepE: a deep neural network for knowledge graph embedding
- arxiv url: http://arxiv.org/abs/2211.04620v1
- Date: Wed, 9 Nov 2022 00:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:03:01.491669
- Title: DeepE: a deep neural network for knowledge graph embedding
- Title(参考訳): DeepE:知識グラフの埋め込みのためのディープニューラルネットワーク
- Authors: Zhu Danhao, Shen Si, Huang Shujian, Yin Chang, Ding Ziqi
- Abstract要約: 本稿では,この問題に対処するニューラルネットワークモデルDeepEを提案する。
DeepEは複数のビルディングブロックを積み重ねて、ヘッドエンティティとリレーションに基づいてテールエンティティを予測する。
広範な実験により、DeepEは他の最先端のベースライン法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, neural network based methods have shown their power in learning
more expressive features on the task of knowledge graph embedding (KGE).
However, the performance of deep methods often falls behind the shallow ones on
simple graphs. One possible reason is that deep models are difficult to train,
while shallow models might suffice for accurately representing the structure of
the simple KGs.
In this paper, we propose a neural network based model, named DeepE, to
address the problem, which stacks multiple building blocks to predict the tail
entity based on the head entity and the relation. Each building block is an
addition of a linear and a non-linear function. The stacked building blocks are
equivalent to a group of learning functions with different non-linear depth.
Hence, DeepE allows deep functions to learn deep features, and shallow
functions to learn shallow features. Through extensive experiments, we find
DeepE outperforms other state-of-the-art baseline methods. A major advantage of
DeepE is the robustness. DeepE achieves a Mean Rank (MR) score that is 6%, 30%,
65% lower than the best baseline methods on FB15k-237, WN18RR and YAGO3-10. Our
design makes it possible to train much deeper networks on KGE, e.g. 40 layers
on FB15k-237, and without scarifying precision on simple relations.
- Abstract(参考訳): 近年,ニューラルネットワークに基づく手法は,知識グラフ埋め込み(KGE)タスクにおいて,より表現力のある特徴を学習する能力を示している。
しかし、深層メソッドのパフォーマンスはしばしば単純なグラフの浅いものより遅れている。
1つの可能性として、深層モデルは訓練が難しいが、浅いモデルは単純なKGの構造を正確に表すのに十分である。
本稿では,この問題に対処するために,複数のビルディングブロックを積み重ねたニューラルネットワークモデルdeepeを提案する。
各ビルディングブロックは、線形関数と非線形関数の追加である。
積み重ねられたビルディングブロックは、非線形深さが異なる学習関数のグループと等価である。
したがって、深層関数は深い特徴を学習し、浅層関数は浅い特徴を学習することができる。
広範な実験を通じて、deepeは他の最先端のベースラインメソッドよりも優れています。
DeepEの大きな利点は、堅牢性です。
deepeは平均ランク(mr)スコアを fb15k-237, wn18rr, yago3-10 の最高基準法より6%, 30%, 65%低い値で達成する。
我々の設計では、FB15k-237上の40層のようなKGE上のより深いネットワークをトレーニングでき、単純な関係の精度を損なわない。
関連論文リスト
- Explainable Deep Belief Network based Auto encoder using novel Extended
Garson Algorithm [6.228766191647919]
我々はDeep Belief Network based Auto-Encoder (DBNA) を説明するアルゴリズムを開発した。
DBN内の各入力機能のコントリビューションを決定するために使用される。
この方法によって同定された重要な特徴は、ウォルドチ広場(chi2)で得られたものと比較される。
論文 参考訳(メタデータ) (2022-07-18T10:44:02Z) - A Note on the Implicit Bias Towards Minimal Depth of Deep Neural
Networks [11.739219085726006]
これらのシステムの成功を可能にする中心的な側面は、広い浅いものではなく、深いモデルを訓練する能力である。
深層ニューラルネットワークのトレーニングは、浅いニューラルネットワークに対して繰り返し、優れたパフォーマンスを達成する一方で、表現学習における深度の役割の理解はいまだに欠如している。
論文 参考訳(メタデータ) (2022-02-18T05:21:28Z) - Non-deep Networks [122.77755088736865]
我々は、高性能な「非深度」ニューラルネットワークを構築することができることを示す。
並列サブストラクチャを利用することで、深さが12のネットワークが80%以上のトップ1の精度を達成できることを示す。
我々は、低遅延認識システムを構築するために、非ディープネットワークをどのように使用できるかという概念の証明を提供する。
論文 参考訳(メタデータ) (2021-10-14T18:03:56Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Evaluating Deep Graph Neural Networks [27.902290204531326]
グラフニューラルネットワーク(GNN)はすでに様々なグラフマイニングタスクに広く適用されている。
モデルの性能改善を妨げる重要な障害である、浅いアーキテクチャの問題に悩まされている。
本稿では,ディープグラフ多層パーセプトロン(DGMLP)について述べる。
論文 参考訳(メタデータ) (2021-08-02T14:55:10Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - How to fine-tune deep neural networks in few-shot learning? [2.0077237398506536]
深層モデルの微調整は単純で効果的な数ショット学習法である。
実験結果から深部モデルを微調整する方法を考察する。
論文 参考訳(メタデータ) (2020-12-01T01:20:59Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Go Wide, Then Narrow: Efficient Training of Deep Thin Networks [62.26044348366186]
本稿では,深層ネットワークを理論的保証で訓練する効率的な手法を提案する。
我々の方法でのトレーニングにより、ResNet50はResNet101を上回り、BERT BaseはBERT Largeに匹敵する。
論文 参考訳(メタデータ) (2020-07-01T23:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。