論文の概要: The Unreasonable Effectiveness of Randomized Representations in Online Continual Graph Learning
- arxiv url: http://arxiv.org/abs/2510.06819v1
- Date: Wed, 08 Oct 2025 09:44:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.395319
- Title: The Unreasonable Effectiveness of Randomized Representations in Online Continual Graph Learning
- Title(参考訳): オンライン連続グラフ学習におけるランダム化表現の不合理な効果
- Authors: Giovanni Donghi, Daniele Zambon, Luca Pasa, Cesare Alippi, Nicolò Navarin,
- Abstract要約: オンライン連続グラフ学習(OCGL)の主な障害の1つは、破滅的な忘れ方である
我々は、固定されたランダムなエンコーダを用いて、近隣情報を集約することで、堅牢で表現力豊かなノード埋め込みを生成する。
エンコーダを凍結することにより,表現パラメータのドリフトを排除し,表現的かつ安定な埋め込みを得る。
- 参考スコア(独自算出の注目度): 23.73070470019403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Catastrophic forgetting is one of the main obstacles for Online Continual Graph Learning (OCGL), where nodes arrive one by one, distribution drifts may occur at any time and offline training on task-specific subgraphs is not feasible. In this work, we explore a surprisingly simple yet highly effective approach for OCGL: we use a fixed, randomly initialized encoder to generate robust and expressive node embeddings by aggregating neighborhood information, training online only a lightweight classifier. By freezing the encoder, we eliminate drifts of the representation parameters, a key source of forgetting, obtaining embeddings that are both expressive and stable. When evaluated across several OCGL benchmarks, despite its simplicity and lack of memory buffer, this approach yields consistent gains over state-of-the-art methods, with surprising improvements of up to 30% and performance often approaching that of the joint offline-training upper bound. These results suggest that in OCGL, catastrophic forgetting can be minimized without complex replay or regularization by embracing architectural simplicity and stability.
- Abstract(参考訳): 破滅的な忘れはオンライン連続グラフ学習(OCGL)の主要な障害の1つであり、ノードが1つずつ到着し、分散ドリフトがいつでも発生し、タスク固有のサブグラフのオフライントレーニングが実現不可能である。
本研究は,OCGL に対して驚くほど単純かつ高効率なアプローチを探索するものである。我々は固定初期化エンコーダを用いて,周辺情報を集約して頑健で表現力豊かなノード埋め込みを生成し,軽量な分類器のみをオンラインで訓練する。
エンコーダを凍結することにより,表現パラメータのドリフトを排除し,表現的かつ安定な埋め込みを得る。
いくつかのOCGLベンチマークで評価されると、その単純さとメモリバッファの欠如にもかかわらず、このアプローチは最先端の手法よりも一貫した利得をもたらす。
これらの結果は、OCGLでは、アーキテクチャの単純さと安定性を受け入れることで、複雑なリプレイや正規化なしに破滅的な忘れを最小化できることを示唆している。
関連論文リスト
- Unleashing Degradation-Carrying Features in Symmetric U-Net: Simpler and Stronger Baselines for All-in-One Image Restoration [52.82397287366076]
オールインワン画像復元は、統合された枠組み内で様々な劣化(ノイズ、ぼかし、悪天候など)を扱うことを目的としている。
本研究では, 優れた特徴抽出法により, 劣化伝達情報を本質的にエンコードする, 重要な知見を明らかにする。
我々の対称設計は固有の劣化信号を頑健に保存し、スキップ接続に単純な加法融合を施す。
論文 参考訳(メタデータ) (2025-12-11T12:20:31Z) - Less is More: Towards Simple Graph Contrastive Learning [28.21633108265473]
グラフコントラスト学習(GCL)は教師なしグラフ表現学習に対して強い期待を示しているが、ヘテロ親和性グラフに対する効果は限定的である。
既存の手法の多くは、複雑な拡張スキーム、複雑なエンコーダ、あるいは負のサンプリングに依存している。
グラフトポロジから構造的特徴を集約することでノード特徴雑音を緩和する。
論文 参考訳(メタデータ) (2025-09-30T03:56:50Z) - Predict, Cluster, Refine: A Joint Embedding Predictive Self-Supervised Framework for Graph Representation Learning [0.0]
グラフ表現学習は、ノード分類やリンク予測といったタスクの基盤として登場した。
現在の自己教師付き学習(SSL)手法は、計算の非効率性、対照的な目的への依存、表現の崩壊といった課題に直面している。
本稿では,意味情報と構造情報を保存しながら,対照的な目的と負のサンプリングを排除したグラフSSLのための新しい結合埋め込み予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-02T07:42:45Z) - LASE: Learned Adjacency Spectral Embeddings [9.227991604045416]
グラフ入力から結節隣接スペクトル埋め込み(ASE)を学習する。
LASEは解釈可能で、パラメータ効率が高く、未観測のエッジを持つ入力に対して堅牢である。
LASEレイヤは、Graph Convolutional Network (GCN)と完全に接続されたGraph Attention Network (GAT)モジュールを組み合わせる。
論文 参考訳(メタデータ) (2024-12-23T17:35:19Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - A Graph Encoder-Decoder Network for Unsupervised Anomaly Detection [7.070726553564701]
グラフから異常ノードを検出するための教師なしグラフエンコーダデコーダモデルを提案する。
符号化段階では、クラスタ割り当て行列を見つけるためにLCPoolと呼ばれる新しいプール機構を設計する。
復号段階ではLCUnpoolと呼ばれるアンプール演算を提案し,元のグラフの構造と結節の特徴を再構築する。
論文 参考訳(メタデータ) (2023-08-15T13:49:12Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - OFedQIT: Communication-Efficient Online Federated Learning via
Quantization and Intermittent Transmission [7.6058140480517356]
オンライン連合学習(OFL)は、分散ストリーミングデータから非線形関数(またはモデル)のシーケンスを協調的に学習する、有望なフレームワークである。
本稿では、量子化と断続伝送を用いた通信効率の高いOFLアルゴリズム(OFedQIT)を提案する。
分析の結果,OfedQITは優れた学習精度を維持しつつ,OfedAvgの欠点に対処できることがわかった。
論文 参考訳(メタデータ) (2022-05-13T07:46:43Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。