論文の概要: Local2Global: Scaling global representation learning on graphs via local
training
- arxiv url: http://arxiv.org/abs/2107.12224v1
- Date: Mon, 26 Jul 2021 14:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 19:05:27.182934
- Title: Local2Global: Scaling global representation learning on graphs via local
training
- Title(参考訳): Local2Global: ローカルトレーニングによるグラフ上のグローバル表現学習のスケールアップ
- Authors: Lucas G. S. Jeub, Giovanni Colavizza, Xiaowen Dong, Marya Bazzi, Mihai
Cucuringu
- Abstract要約: 本稿では,グラフ表現学習のための分散型「ローカル2言語」アプローチを提案する。
パッチ毎に局所表現を個別に訓練し、局所表現をグローバルに一貫した表現に組み合わせる。
中規模データセットの予備的な結果が期待でき、グローバルに訓練された埋め込みに匹敵するローカル2グロバルのグラフ再構成性能が期待できる。
- 参考スコア(独自算出の注目度): 6.292766967410996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a decentralised "local2global" approach to graph representation
learning, that one can a-priori use to scale any embedding technique. Our
local2global approach proceeds by first dividing the input graph into
overlapping subgraphs (or "patches") and training local representations for
each patch independently. In a second step, we combine the local
representations into a globally consistent representation by estimating the set
of rigid motions that best align the local representations using information
from the patch overlaps, via group synchronization. A key distinguishing
feature of local2global relative to existing work is that patches are trained
independently without the need for the often costly parameter synchronisation
during distributed training. This allows local2global to scale to large-scale
industrial applications, where the input graph may not even fit into memory and
may be stored in a distributed manner. Preliminary results on medium-scale data
sets (up to $\sim$7K nodes and $\sim$200K edges) are promising, with a graph
reconstruction performance for local2global that is comparable to that of
globally trained embeddings. A thorough evaluation of local2global on large
scale data and applications to downstream tasks, such as node classification
and link prediction, constitutes ongoing work.
- Abstract(参考訳): グラフ表現学習において,a-priori を用いて任意の埋め込み手法をスケールできる分散型 "local2global" アプローチを提案する。
local2globalアプローチでは、まず入力グラフを重複するサブグラフ(あるいは"パッチ")に分割し、各パッチのローカル表現を独立してトレーニングします。
第2のステップでは、局所表現を大域的に一貫した表現に組み合わせ、グループ同期を通じてパッチからの情報を用いて局所表現を最良に整列する剛体運動の集合を推定する。
既存の作業に対するローカル2グロバルの重要な特徴は、パッチが分散トレーニング中にしばしばコストのかかるパラメータ同期を必要とせずに独立してトレーニングされることである。
これによりローカル2グロバルは、入力グラフがメモリに収まらず、分散的に保存されるような大規模産業アプリケーションにスケールすることができる。
中規模のデータセット(最大$\sim$7Kノードと$\sim$200Kエッジ)の予備的な結果が期待でき、グローバルにトレーニングされた埋め込みに匹敵するローカル2globalのグラフ再構成性能が期待できる。
local2globalの大規模データとノード分類やリンク予測といった下流タスクへの応用に関する徹底的な評価が進行中の作業を構成する。
関連論文リスト
- L2G2G: a Scalable Local-to-Global Network Embedding with Graph
Autoencoders [6.945992777272943]
グラフ表現学習は、現実世界のネットワークを分析する一般的なツールである。
GAEはかなり正確だが、スケーラビリティの問題に悩まされている。
高速化のために、Local2Globalアプローチは高速で精度が良いことを示した。
本稿では,拡張性を犠牲にすることなくGAEの精度を向上させるLocal2Global法であるL2G2Gを提案する。
論文 参考訳(メタデータ) (2024-02-02T18:24:37Z) - Balancing between the Local and Global Structures (LGS) in Graph
Embedding [1.4732811715354455]
本稿では,グラフ埋め込みにおける局所構造とグローバル構造(LGS)のバランスをとる手法を提案する。
合成および実世界のデータセットを用いたLGSの性能評価を行い, 現状の手法と競合することを示す。
論文 参考訳(メタデータ) (2023-08-31T02:12:46Z) - Federated Learning with Intermediate Representation Regularization [14.01585596739954]
フェデレートラーニング(FL)は、リモートクライアントがプライベートデータを公開せずに、協力的にモデルをトレーニングすることを可能にする。
従来の研究では、局所モデルと大域モデルによって学習された表現間の距離を規則化することでこれを達成している。
我々はFedIntRを導入し、中間層の表現を局所的なトレーニングプロセスに統合することで、よりきめ細かい正規化を提供する。
論文 参考訳(メタデータ) (2022-10-28T01:43:55Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Local2Global: A distributed approach for scaling representation learning
on graphs [10.254620252788776]
本稿では,グラフ表現学習における分散型「ローカル2言語」アプローチを提案する。
提案手法は,エッジ再構築におけるスケールと精度の良好なトレードオフと半教師付き分類を実現する。
また、異常検出の下流タスクについても検討し、ローカル2globalを使ってサイバーセキュリティネットワークの異常を強調できることを示す。
論文 参考訳(メタデータ) (2022-01-12T23:00:22Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z) - Self-supervised Graph-level Representation Learning with Local and
Global Structure [71.45196938842608]
自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
論文 参考訳(メタデータ) (2021-06-08T05:25:38Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Semantic Histogram Based Graph Matching for Real-Time Multi-Robot Global
Localization in Large Scale Environment [18.128244946109795]
本稿では,視点変化に頑健な意味ヒストグラムに基づくグラフマッチング手法を提案し,リアルタイムなグローバルなローカライゼーションを実現する。
我々のアプローチはランダムウォークベースのセマンティック記述子よりも約30倍高速です。
これは、グローバルなローカライゼーションにおいて95%の精度を達成する一方、最先端手法の精度は85%である。
論文 参考訳(メタデータ) (2020-10-19T08:18:42Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。