論文の概要: Cleora: A Simple, Strong and Scalable Graph Embedding Scheme
- arxiv url: http://arxiv.org/abs/2102.02302v1
- Date: Wed, 3 Feb 2021 21:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-06 03:10:22.744374
- Title: Cleora: A Simple, Strong and Scalable Graph Embedding Scheme
- Title(参考訳): Cleora: シンプルで強力でスケーラブルなグラフ埋め込みスキーム
- Authors: Barbara Rychalska, Piotr B\k{a}bel, Konrad Go{\l}uchowski, Andrzej
Micha{\l}owski, Jacek D\k{a}browski
- Abstract要約: Cleoraは教師なしグラフ埋め込みアルゴリズムで、最先端のCPUアルゴリズムよりも高速に動作する。
我々は、Cleoraが、対照的な手法に類似したデータ抽象化を、より少ない計算コストで学習していることを示す。
- 参考スコア(独自算出の注目度): 0.15749416770494706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The area of graph embeddings is currently dominated by contrastive learning
methods, which demand formulation of an explicit objective function and
sampling of positive and negative examples. This creates a conceptual and
computational overhead. Simple, classic unsupervised approaches like
Multidimensional Scaling (MSD) or the Laplacian eigenmap skip the necessity of
tedious objective optimization, directly exploiting data geometry.
Unfortunately, their reliance on very costly operations such as matrix
eigendecomposition make them unable to scale to large graphs that are common in
today's digital world. In this paper we present Cleora: an algorithm which gets
the best of two worlds, being both unsupervised and highly scalable. We show
that high quality embeddings can be produced without the popular step-wise
learning framework with example sampling. An intuitive learning objective of
our algorithm is that a node should be similar to its neighbors, without
explicitly pushing disconnected nodes apart. The objective is achieved by
iterative weighted averaging of node neigbors' embeddings, followed by
normalization across dimensions. Thanks to the averaging operation the
algorithm makes rapid strides across the embedding space and usually reaches
optimal embeddings in just a few iterations. Cleora runs faster than other
state-of-the-art CPU algorithms and produces embeddings of competitive quality
as measured on downstream tasks: link prediction and node classification. We
show that Cleora learns a data abstraction that is similar to contrastive
methods, yet at much lower computational cost. We open-source Cleora under the
MIT license allowing commercial use under https://github.com/Synerise/cleora.
- Abstract(参考訳): グラフ埋め込みの領域は現在、明示的な客観的関数の定式化と正と負の例のサンプリングを要求する対比学習法によって支配されている。
これは概念的および計算的オーバーヘッドを生み出す。
多次元スケーリング(MSD)やLaplacian eigenmapのような、シンプルで古典的な監視されていないアプローチは、退屈な客観的最適化の必要性をスキップし、データジオメトリを直接利用します。
残念ながら、行列固有分解のような非常にコストのかかる演算への依存は、今日のデジタル世界において一般的な大きなグラフにスケールできない。
本稿では,教師なしと高度にスケーラブルな2つの世界のベストを得られるアルゴリズムであるCleoraについて述べる。
サンプルサンプリングによる一般的なステップワイズ学習フレームワークを使わずに高品質な埋め込みを実現できることを示す。
このアルゴリズムの直感的な学習目的は、ノードが切断されたノードを明示的に押すことなく、隣接ノードと類似すべきであるということです。
この目標は、node neigborsの埋め込みの反復的な重み付け平均化と、次元をまたいだ正規化によって達成される。
平均演算のおかげで、アルゴリズムは埋め込み空間を素早く進み、通常はほんの数回のイテレーションで最適な埋め込みに到達する。
Cleoraは他の最先端のCPUアルゴリズムよりも高速に動作し、下流タスクで測定された競合品質の埋め込みを生成する。
cleoraは対照的な手法に類似したデータ抽象化を学習するが、計算コストははるかに低い。
私たちはMITライセンスでCleoraをオープンソースとして公開し、https://github.com/Synerise/cleoraで商用利用できるようにしました。
関連論文リスト
- Learning the Geodesic Embedding with Graph Neural Networks [22.49236293942187]
離散多面体表面上の2つの任意の点間の近似測地距離を計算するための学習ベース手法であるGeGnnを提案する。
私たちのキーとなるアイデアは、グラフニューラルネットワークをトレーニングして、入力メッシュを高次元の埋め込み空間に埋め込むことです。
本研究では,ShapeNetにおける提案手法の有効性と有効性を検証するとともに,既存の手法よりも桁違いに高速であることを示す。
論文 参考訳(メタデータ) (2023-09-11T16:54:34Z) - A Restarted Large-Scale Spectral Clustering with Self-Guiding and Block
Diagonal Representation [1.115905690697198]
自己誘導とブロック対角表現を備えた再起動クラスタリングフレームワークを提案する。
この戦略の利点は、以前のサイクルから得られた有用なクラスタリング情報を保存できることである。
スペクトルクラスタリングにおける不正確な計算の合理性を示す理論的結果が確立された。
論文 参考訳(メタデータ) (2023-06-27T01:38:52Z) - Learning the Positions in CountSketch [49.57951567374372]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習ベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-11T07:28:35Z) - Efficient block contrastive learning via parameter-free meta-node
approximation [1.1470070927586016]
サブサンプリングは最適ではなく、誤った負のサンプリングはサンプリングバイアスにつながる。
本稿では,メタノードをベースとした近似手法を提案する。
6つのベンチマークで、最先端グラフクラスタリングよりも有望な精度向上を示す。
論文 参考訳(メタデータ) (2022-09-28T12:56:35Z) - Genie: A new, fast, and outlier-resistant hierarchical clustering
algorithm [3.7491936479803054]
我々はGenieと呼ばれる新しい階層的クラスタリングリンク基準を提案する。
我々のアルゴリズムは、2つのクラスタを、選択された経済不平等尺度が与えられたしきい値を超えないようにリンクする。
このアルゴリズムのリファレンス実装は、Rのためのオープンソースの'genie'パッケージに含まれている。
論文 参考訳(メタデータ) (2022-09-13T06:42:53Z) - Sublinear Algorithms for Hierarchical Clustering [14.124026862687941]
本稿では,3つの線形計算モデルに基づく大規模グラフの階層クラスタリングについて検討する。
すべてのモデルにおいて階層クラスタリングのためのサブ線形アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-06-15T16:25:27Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - Learning the Positions in CountSketch [51.15935547615698]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習アルゴリズムを提案する。
このアルゴリズムは, 従来よりも低階近似の精度を向上し, 初めて$k$-meansクラスタリングのような他の問題に適用できることを示す。
論文 参考訳(メタデータ) (2020-07-20T05:06:29Z) - Online Dense Subgraph Discovery via Blurred-Graph Feedback [87.9850024070244]
我々は高密度サブグラフ発見のための新しい学習問題を導入する。
まず,確率の高いほぼ最適解を求めるエッジ時間アルゴリズムを提案する。
そして、理論的保証のあるよりスケーラブルなアルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-06-24T11:37:33Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。