論文の概要: Boosting the Speed of Entity Alignment 10*: Dual Attention Matching
Network with Normalized Hard Sample Mining
- arxiv url: http://arxiv.org/abs/2103.15452v1
- Date: Mon, 29 Mar 2021 09:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:10:56.634493
- Title: Boosting the Speed of Entity Alignment 10*: Dual Attention Matching
Network with Normalized Hard Sample Mining
- Title(参考訳): エンティティアライメント10*の高速化 : 正規化ハードサンプルマイニングによる2重アライメントマッチングネットワーク
- Authors: Xin Mao, Wenting Wang, Yuanbin Wu, Man Lan
- Abstract要約: 我々は新しいKGエンコーダ-デュアルアテンションマッチングネットワーク(Dual-AMN)を提案する。
広く利用されている公開データセットの実験結果から,本手法は高精度かつ高効率であることがわかった。
- 参考スコア(独自算出の注目度): 26.04006507181558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Seeking the equivalent entities among multi-source Knowledge Graphs (KGs) is
the pivotal step to KGs integration, also known as \emph{entity alignment}
(EA). However, most existing EA methods are inefficient and poor in
scalability. A recent summary points out that some of them even require several
days to deal with a dataset containing 200,000 nodes (DWY100K). We believe
over-complex graph encoder and inefficient negative sampling strategy are the
two main reasons. In this paper, we propose a novel KG encoder -- Dual
Attention Matching Network (Dual-AMN), which not only models both intra-graph
and cross-graph information smartly, but also greatly reduces computational
complexity. Furthermore, we propose the Normalized Hard Sample Mining Loss to
smoothly select hard negative samples with reduced loss shift. The experimental
results on widely used public datasets indicate that our method achieves both
high accuracy and high efficiency. On DWY100K, the whole running process of our
method could be finished in 1,100 seconds, at least 10* faster than previous
work. The performances of our method also outperform previous works across all
datasets, where Hits@1 and MRR have been improved from 6% to 13%.
- Abstract(参考訳): 多元ナレッジグラフ(kgs)間の等価なエンティティを求めることは、kgs 統合の重要なステップであり、これは \emph{entity alignment} (ea) としても知られている。
しかし、既存のEAメソッドのほとんどは非効率でスケーラビリティに乏しい。
最近の要約では、20万のノード(dwy100k)を含むデータセットを扱うのに数日を要するものもある。
オーバーコンプレックスグラフエンコーダと非効率な負サンプリング戦略が2つの主な理由であると考えている。
本稿では,グラフ内情報とクロスグラフ情報の両方を賢くモデル化するだけでなく,計算量を大幅に削減する新しいkgエンコーダであるdual-amnを提案する。
さらに, 損失シフトを低減した正負の試料を円滑に選択する正規化ハードサンプルマイニング損失を提案する。
広く利用されている公開データセットの実験結果から,本手法は高精度かつ高効率であることがわかった。
dwy100kでは、すべての実行プロセスは1100秒で完了でき、少なくとも以前の作業よりも10倍高速です。
また,Hits@1とMRRは6%から13%に改善されている。
関連論文リスト
- Scalable and Efficient Temporal Graph Representation Learning via Forward Recent Sampling [7.803172953008744]
時間グラフ表現学習(TGRL)は,実世界のネットワークにおける動的システムのモデリングに不可欠である。
従来のTGRL法は、時間的隣人の非効率なサンプリングのため、重要な計算課題や推論遅延に直面していることが多い。
本稿では,新しいTGRLフレームワークであるNo-Looking-Back (NLB)を提案する。
論文 参考訳(メタデータ) (2024-02-03T00:12:36Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Improving Dual-Encoder Training through Dynamic Indexes for Negative
Mining [61.09807522366773]
本稿では,ソフトマックスを証明可能な境界で近似し,木を動的に維持するアルゴリズムを提案する。
我々は,2000万以上のターゲットを持つデータセットについて検討し,オラクル・ブルート力負の鉱業に関して,誤差を半分に削減した。
論文 参考訳(メタデータ) (2023-03-27T15:18:32Z) - Simplex Autoencoders [1.3960152426268768]
本稿では,オートエンコーダの潜伏空間を単純な表現としてモデル化し,混合モデルの成分数を決定する新しい手法を提案する。
合成データセットに対する我々のアプローチを評価し,その性能を3つのベンチマークデータセットで実証する。
論文 参考訳(メタデータ) (2023-01-16T15:57:03Z) - RSC: Accelerating Graph Neural Networks Training via Randomized Sparse
Computations [56.59168541623729]
トレーニンググラフニューラルネットワーク(GNN)は、疎グラフベースの操作がハードウェアによって加速することが難しいため、時間を要する。
我々は,サンプリングに基づく近似による時間的複雑性を低減するために,計算精度のトレードオフを検討する。
本稿では,GNNを近似演算でトレーニングする可能性を初めて示すランダム化スパース計算を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:25:33Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - SCARA: Scalable Graph Neural Networks with Feature-Oriented Optimization [23.609017952951454]
グラフ計算のための特徴指向最適化を備えたスケーラブルグラフニューラルネットワーク(GNN)であるSCARAを提案する。
SCARAはノードの特徴からグラフの埋め込みを効率的に計算し、機能の結果を選択して再利用することでオーバーヘッドを減らします。
利用可能な最大10億のGNNデータセットであるPapers100M(1110万ノード、1.6Bエッジ)を100秒でプリ計算するのが効率的である。
論文 参考訳(メタデータ) (2022-07-19T10:32:11Z) - Condensing Graphs via One-Step Gradient Matching [50.07587238142548]
ネットワーク重みを訓練せずに1ステップのみの勾配マッチングを行う1ステップ勾配マッチング方式を提案する。
我々の理論的分析は、この戦略が実際のグラフの分類損失を減少させる合成グラフを生成することができることを示している。
特に、元のパフォーマンスの最大98%を近似しながら、データセットサイズを90%削減することが可能です。
論文 参考訳(メタデータ) (2022-06-15T18:20:01Z) - Are Negative Samples Necessary in Entity Alignment? An Approach with
High Performance, Scalability and Robustness [26.04006507181558]
本稿では,高パフォーマンス,高スケーラビリティ,高ロバスト性を実現する3つの新しいコンポーネントを持つ新しいEA手法を提案する。
提案手法の有効性と有効性を検討するために,いくつかの公開データセットについて詳細な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T15:20:41Z) - Augmentation Strategies for Learning with Noisy Labels [3.698228929379249]
ノイズラベル付き学習」問題に取り組むアルゴリズムについて,様々な拡張戦略を評価した。
ロスモデリングタスクと学習のための別のセットに拡張の1つのセットを使用することが最も効果的であることがわかります。
我々は,この拡張戦略を最先端技術に導入し,評価されたすべての騒音レベルにおける性能向上を実証する。
論文 参考訳(メタデータ) (2021-03-03T02:19:35Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。