論文の概要: ${\rm N{\small ode}S{\small ig}}$: Random Walk Diffusion meets Hashing
for Scalable Graph Embeddings
- arxiv url: http://arxiv.org/abs/2010.00261v1
- Date: Thu, 1 Oct 2020 09:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 07:45:16.146088
- Title: ${\rm N{\small ode}S{\small ig}}$: Random Walk Diffusion meets Hashing
for Scalable Graph Embeddings
- Title(参考訳): ${\rm n{\small ode}s{\small ig}}$:ランダムウォーク拡散はスケーラブルグラフ埋め込みのためのハッシュ化を満たす
- Authors: Abdulkadir \c{C}elikkanat and Apostolos N. Papadopoulos and Fragkiskos
D. Malliaros
- Abstract要約: $rm Nsmall odeSsmall ig$は、バイナリノード表現を計算するスケーラブルな埋め込みモデルである。
$rm N Small odeS Small ig$は、ランダムなウォーク拡散確率を、安定したランダムなプロジェクションハッシュを通じて活用する。
- 参考スコア(独自算出の注目度): 7.025709586759654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning node representations is a crucial task with a plethora of
interdisciplinary applications. Nevertheless, as the size of the networks
increases, most widely used models face computational challenges to scale to
large networks. While there is a recent effort towards designing algorithms
that solely deal with scalability issues, most of them behave poorly in terms
of accuracy on downstream tasks. In this paper, we aim at studying models that
balance the trade-off between efficiency and accuracy. In particular, we
propose ${\rm N{\small ode}S{\small ig}}$, a scalable embedding model that
computes binary node representations. ${\rm N{\small ode}S{\small ig}}$
exploits random walk diffusion probabilities via stable random projection
hashing, towards efficiently computing embeddings in the Hamming space. Our
extensive experimental evaluation on various graphs has demonstrated that the
proposed model achieves a good balance between accuracy and efficiency compared
to well-known baseline models on two downstream tasks.
- Abstract(参考訳): ノード表現の学習は、多くの学際的アプリケーションにおいて重要なタスクである。
それでも、ネットワークのサイズが大きくなるにつれて、ほとんどのモデルが大規模ネットワークにスケールするための計算上の課題に直面している。
スケーラビリティの問題のみを扱うアルゴリズムを設計するという最近の取り組みはありますが、そのほとんどはダウンストリームタスクの正確性の観点からは不十分です。
本稿では,効率と精度のトレードオフのバランスをとるモデルについて検討する。
具体的には、バイナリノード表現を計算するスケーラブルな埋め込みモデルである${\rm N{\small ode}S{\small ig}}$を提案する。
${\rm n{\small ode}s{\small ig}}$は、ハミング空間への埋め込みを効率的に計算するために、安定なランダム射影ハッシュによるランダムウォーク拡散確率を利用する。
提案手法は,2つの下流タスクにおけるよく知られたベースラインモデルと比較して,精度と効率のバランスが良好であることを示す。
関連論文リスト
- Efficient Verification-Based Face Identification [50.616875565173274]
効率の良いニューラルモデルで顔認証を行う際の問題点を$f$で検討する。
我々のモデルは、23kパラメータと5M浮動小数点演算(FLOPS)しか必要としない、かなり小さな$f$に導かれる。
我々は、6つの顔認証データセットを用いて、我々の手法が最先端のモデルよりも同等か優れていることを示す。
論文 参考訳(メタデータ) (2023-12-20T18:08:02Z) - Quantifying lottery tickets under label noise: accuracy, calibration,
and complexity [6.232071870655069]
ディープニューラルネットワークのプルーニングは、機械学習の計算負担を軽減するために広く利用されている戦略である。
スパース二重降下法を用いて一意的に同定し,分類タスクに付随するプルーンドモデルを特徴付ける。
論文 参考訳(メタデータ) (2023-06-21T11:35:59Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Degree-Based Random Walk Approach for Graph Embedding [0.0]
計算量が少なく,ノード接続性に配慮した一様サンプリング手法を提案する。
提案アルゴリズムの利点は,大規模グラフに適用した場合にさらに向上する。
論文 参考訳(メタデータ) (2021-10-21T19:16:16Z) - One Loss for All: Deep Hashing with a Single Cosine Similarity based
Learning Objective [86.48094395282546]
ディープハッシュモデルは通常、学習されたバイナリハッシュコードの識別と量子化エラーの最小化という2つの学習目標を持つ。
本稿では,1つの学習目的しか持たない新しい深層ハッシュモデルを提案する。
我々のモデルは,3つの大規模インスタンス検索ベンチマークにおいて,最先端のマルチロスハッシュモデルより優れている。
論文 参考訳(メタデータ) (2021-09-29T14:27:51Z) - Parameter Efficient Deep Neural Networks with Bilinear Projections [16.628045837101237]
本稿では、従来の全射影を双線形射影に置き換えることで、ディープニューラルネットワーク(DNN)のパラメータ冗長性問題に対処する。
入力ノードが$D$と出力ノードが$D$である完全接続層では、双線形プロジェクションを適用することで、モデル空間の複雑さが軽減される。
4つのベンチマークデータセットの実験では、提案された双線形プロジェクションをディープニューラルネットワークに適用すると、さらに高い精度が得られることが示されている。
論文 参考訳(メタデータ) (2020-11-03T00:17:24Z) - Towards Deep Learning Models Resistant to Large Perturbations [0.0]
敵対的堅牢性は、機械学習アルゴリズムの必須特性であることが証明されている。
とよばれるアルゴリズムは、大きくても合理的で摂動のマグニチュードが与えられたディープニューラルネットワークのトレーニングに失敗することを示した。
論文 参考訳(メタデータ) (2020-03-30T12:03:09Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。