論文の概要: ClusterEA: Scalable Entity Alignment with Stochastic Training and
Normalized Mini-batch Similarities
- arxiv url: http://arxiv.org/abs/2205.10312v1
- Date: Fri, 20 May 2022 17:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 13:11:53.089782
- Title: ClusterEA: Scalable Entity Alignment with Stochastic Training and
Normalized Mini-batch Similarities
- Title(参考訳): clusterea: 確率的トレーニングと正規化されたミニバッチ類似性を備えたスケーラブルなエンティティアライメント
- Authors: Yunjun Gao, Xiaoze Liu, Junyang Wu, Tianyi Li, Pengfei Wang, Lu Chen
- Abstract要約: ClusterEAは、ミニバッチ上で正規化メソッドを活用することで、EAモデルをスケールアップし、その結果を向上することができる。
最初にEA向けの大規模なGNNをトレーニングし、エンティティの埋め込みを生成する。
埋め込みに基づいて、非常に重なり合ったミニバッチをサンプリングするための新しいClusterSampler戦略が提案されている。
- 参考スコア(独自算出の注目度): 26.724014626196322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entity alignment (EA) aims at finding equivalent entities in different
knowledge graphs (KGs). Embedding-based approaches have dominated the EA task
in recent years. Those methods face problems that come from the geometric
properties of embedding vectors, including hubness and isolation. To solve
these geometric problems, many normalization approaches have been adopted to
EA. However, the increasing scale of KGs renders it is hard for EA models to
adopt the normalization processes, thus limiting their usage in real-world
applications. To tackle this challenge, we present ClusterEA, a general
framework that is capable of scaling up EA models and enhancing their results
by leveraging normalization methods on mini-batches with a high entity
equivalent rate. ClusterEA contains three components to align entities between
large-scale KGs, including stochastic training, ClusterSampler, and
SparseFusion. It first trains a large-scale Siamese GNN for EA in a stochastic
fashion to produce entity embeddings. Based on the embeddings, a novel
ClusterSampler strategy is proposed for sampling highly overlapped
mini-batches. Finally, ClusterEA incorporates SparseFusion, which normalizes
local and global similarity and then fuses all similarity matrices to obtain
the final similarity matrix. Extensive experiments with real-life datasets on
EA benchmarks offer insight into the proposed framework, and suggest that it is
capable of outperforming the state-of-the-art scalable EA framework by up to 8
times in terms of Hits@1.
- Abstract(参考訳): エンティティアライメント(EA)は、異なる知識グラフ(KG)に等価なエンティティを見つけることを目的としている。
近年、埋め込みベースのアプローチがEAのタスクを支配している。
これらの方法は、ハブネスやアイソレーションを含む埋め込みベクトルの幾何学的性質から生じる問題に直面している。
これらの幾何学的問題を解決するために、EAには多くの正規化アプローチが採用されている。
しかし、KGsの規模が大きくなると、EAモデルでは正規化プロセスの採用が難しくなり、現実世界のアプリケーションでの使用が制限される。
この課題に取り組むため、我々は、高いエンティティ等価率でミニバッチの正規化手法を活用し、eaモデルのスケールアップと結果の強化が可能な一般的なフレームワークであるclustereaを提案する。
ClusterEAには、確率的トレーニング、ClusterSampler、SparseFusionなど、大規模なKG間のエンティティを調整するための3つのコンポーネントが含まれている。
まず、EA向けの大規模なシームズGNNを確率論的に訓練し、実体を埋め込む。
埋め込みに基づいて、非常に重なり合ったミニバッチをサンプリングするための新しいClusterSampler戦略を提案する。
最後に、ClusterEAはSparseFusionを導入し、局所的および大域的類似性を正規化し、すべての類似度行列を融合して最終的な類似度行列を得る。
EAベンチマークの実際のデータセットによる大規模な実験は、提案されたフレームワークに関する洞察を与え、Hits@1の観点で、最先端のスケーラブルなEAフレームワークを最大8倍に向上させることができることを示唆している。
関連論文リスト
- Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
しかし、スプライン関数は、機械学習において重要な事前知識であるタスクの対称性を尊重しないかもしれない。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - SIGMA: Scale-Invariant Global Sparse Shape Matching [50.385414715675076]
非剛体形状の正確なスパース対応を生成するための新しい混合整数プログラミング(MIP)法を提案する。
いくつかの挑戦的な3Dデータセットに対して,スパースな非剛性マッチングの最先端結果を示す。
論文 参考訳(メタデータ) (2023-08-16T14:25:30Z) - Toward Practical Entity Alignment Method Design: Insights from New
Highly Heterogeneous Knowledge Graph Datasets [32.68422342604253]
実運用環境でのエンティティアライメント(EA)手法の性能について検討し、特に高ヘテロジニアスKG(HHKG)のアライメントに着目した。
以上の結果から,HHKGと協調して,メッセージパッシングやアグリゲーション機構を通じて,貴重な構造情報を活用できることが示唆された。
これらの結果は、すべてのEAデータセットに対するパナセアとして、GNNベースの手法の従来の適用に関連する潜在的な問題に光を当てた。
論文 参考訳(メタデータ) (2023-04-07T04:10:26Z) - LightEA: A Scalable, Robust, and Interpretable Entity Alignment
Framework via Three-view Label Propagation [27.483109233276632]
既存のGNNベースのEAメソッドは、ニューラルネットワークの系統から生まれてくる欠陥を継承している、と我々は主張する。
我々は,(i)ランダム直交ラベル生成,(ii)3ビューラベル伝搬,(iii)スパースシンクホーンイテレーションという3つの効率的なコンポーネントからなる非神経EAフレームワーク-LightEAを提案する。
公開データセットに関する広範な実験によると、LightEAは印象的なスケーラビリティ、堅牢性、解釈可能性を持っている。
論文 参考訳(メタデータ) (2022-10-19T10:07:08Z) - High-quality Task Division for Large-scale Entity Alignment [28.001266850114643]
DivEAは、代替の最先端ソリューションよりも高いEAパフォーマンスを達成する。
我々は、EAタスクの局所性原理と訓練されたEAモデルのパワーを生かした他の発見手法を考案する。
論文 参考訳(メタデータ) (2022-08-22T14:46:38Z) - ActiveEA: Active Learning for Neural Entity Alignment [31.212894129845093]
エンティティアライメント(EA)は、異なる知識グラフ(KG)間で同等のエンティティをマッチングすることを目的としている。
現在の主流の手法であるニューラルEAモデルは、シードアライメントによるトレーニング、すなわち、事前整合したエンティティペアのセットに依存しています。
我々は、神経EAのための新しいアクティブラーニング(AL)フレームワークを考案し、非常に有意義なシードアライメントを作ることを目指している。
論文 参考訳(メタデータ) (2021-10-13T03:38:04Z) - Are Negative Samples Necessary in Entity Alignment? An Approach with
High Performance, Scalability and Robustness [26.04006507181558]
本稿では,高パフォーマンス,高スケーラビリティ,高ロバスト性を実現する3つの新しいコンポーネントを持つ新しいEA手法を提案する。
提案手法の有効性と有効性を検討するために,いくつかの公開データセットについて詳細な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T15:20:41Z) - Semantic Correspondence with Transformers [68.37049687360705]
本稿では,変換器を用いたコストアグリゲーション(CAT)を提案し,意味論的に類似した画像間の密接な対応を見出す。
初期相関マップと多レベルアグリゲーションを曖昧にするための外観親和性モデリングを含む。
提案手法の有効性を示す実験を行い,広範囲にわたるアブレーション研究を行った。
論文 参考訳(メタデータ) (2021-06-04T14:39:03Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。