論文の概要: Task-Aware Adaptive Modulation: A Replay-Free and Resource-Efficient Approach For Continual Graph Learning
- arxiv url: http://arxiv.org/abs/2509.00735v1
- Date: Sun, 31 Aug 2025 08:04:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.366021
- Title: Task-Aware Adaptive Modulation: A Replay-Free and Resource-Efficient Approach For Continual Graph Learning
- Title(参考訳): Task-Aware Adaptive Modulation:連続グラフ学習のためのリプレイフリーで資源効率の良いアプローチ
- Authors: Jingtao Liu, Xinming Zhang,
- Abstract要約: これらの課題を克服する鍵は、データ再生やネットワーク全体を微調整することではなく、凍結したバックボーンの内部計算フローを動的に調節することにある。
この知見に感化されて、我々は、安定塑性ジレンマをナビゲートするための新しい経路をグラフ化した、リプレイフリーでリソース効率の良いアプローチであるタスク・アウェア・アダプティブ・モジュレーション(TAAM)を提案する。
- 参考スコア(独自算出の注目度): 3.780931979011216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Graph Learning(CGL)focuses on acquiring new knowledge while retaining previously learned information, essential for real-world graph applications. Current methods grapple with two main issues:1) The Stability-Plasticity Dilemma: Replay-based methods often create an imbalance between the Dilemma, while incurring significant storage costs.2) The Resource-Heavy Pre-training: Leading replay-free methods critically depend on extensively pre-trained backbones, this reliance imposes a substantial resource burden.In this paper, we argue that the key to overcoming these challenges lies not in replaying data or fine-tuning the entire network, but in dynamically modulating the internal computational flow of a frozen backbone. We posit that lightweight, task-specific modules can effectively steer a GNN's reasoning process. Motivated by this insight, we propose Task-Aware Adaptive Modulation(TAAM), a replay-free, resource-efficient approach that charts a new path for navigating the stability-plasticity dilemma. TAAM's core is its Neural Synapse Modulators(NSM), which are trained and then frozen for each task to store expert knowledge. A pivotal prototype-guided strategy governs these modulators: 1) For training, it initializes a new NSM by deep-copying from a similar past modulator to boost knowledge transfer. 2) For inference, it selects the most relevant frozen NSM for each task. These NSMs insert into a frozen GNN backbone to perform fine-grained, node-attentive modulation of its internal flow-different from the static perturbations of prior methods. Extensive experiments show that TAAM comprehensively outperforms state-of-the-art methods across six GCIL benchmark datasets. The code will be released upon acceptance of the paper.
- Abstract(参考訳): 連続グラフ学習(CGL)は、現実世界のグラフアプリケーションに不可欠な、学習済みの情報を保持しながら、新しい知識の獲得に重点を置いている。
1) 安定-弾塑性ジレンマ: リプレイベースの手法は、しばしばジレンマ間の不均衡を生じるが、大きなストレージコストが生じる。2) リソース-重大な事前学習: リプレイ不要な手法は、広範囲に事前訓練されたバックボーンに依存しているため、この依存は、かなりのリソース負担を負う。この記事では、これらの課題を克服する鍵は、データの再プレイやネットワーク全体を微調整することではなく、凍結されたバックボーンの内部計算フローを動的に調節することにある、と論じる。
我々は、軽量でタスク固有のモジュールが、GNNの推論プロセスを効果的に操ることができると仮定する。
この知見に感化されて、我々は、安定塑性ジレンマをナビゲートするための新しい経路をグラフ化した、リプレイフリーでリソース効率の良いアプローチであるタスク・アウェア・アダプティブ・モジュレーション(TAAM)を提案する。
TAAMのコアとなるNeural Synapse Modulator(NSM)は、専門家の知識を保持するためにトレーニングされ、各タスクに凍結される。
中心となるプロトタイプ誘導戦略は、これらの変調器を統治する。
1) 学習において, 知識伝達を促進するため, 類似の過去の変調器からのディープコピーにより, 新たなNSMを初期化する。
2) 推論では,各タスクに最も関連性の高い凍結NSMを選択する。
これらのNSMは凍結したGNNのバックボーンに挿入され、従来の手法の静的摂動から内部の流れを微細に調整する。
大規模な実験によると、TAAMは6つのGCILベンチマークデータセットで最先端のメソッドを総合的に上回っている。
コードは論文の受理時に公開される。
関連論文リスト
- DESIRE: Dynamic Knowledge Consolidation for Rehearsal-Free Continual Learning [23.878495627964146]
連続学習は、人間のような以前に学習された知識を保持する能力をモデルに装備することを目的としている。
既存の手法は通常、実験データが事前訓練されたモデルで使用されているという事実によって引き起こされる情報漏洩の問題を見落としている。
本稿では,ロラをベースとした新たなリハーサルフリー手法DESIREを提案する。
論文 参考訳(メタデータ) (2024-11-28T13:54:01Z) - Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Jointly-Learned Exit and Inference for a Dynamic Neural Network : JEI-DNN [20.380620709345898]
早期排他的動的ニューラルネットワーク(EDNN)は、中間層(即ち早期排他)からの予測の一部をモデルが行うことを可能にする。
EDNNアーキテクチャのトレーニングは、初期出力決定を制御するゲーティング機構(GM)と中間表現からの推論を実行する中間推論モジュール(IM)の2つのコンポーネントで構成されるため、難しい。
本稿では,これら2つのモジュールを接続する新しいアーキテクチャを提案する。これにより分類データセットの性能が大幅に向上し,不確実性評価機能の向上が期待できる。
論文 参考訳(メタデータ) (2023-10-13T14:56:38Z) - Decouple Graph Neural Networks: Train Multiple Simple GNNs Simultaneously Instead of One [60.5818387068983]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - Learning in Feedback-driven Recurrent Spiking Neural Networks using
full-FORCE Training [4.124948554183487]
本稿では,トレーニング中にのみ第2のネットワークを導入するRSNNの教師付きトレーニング手順を提案する。
提案したトレーニング手順は、リカレント層とリードアウト層の両方のターゲットを生成することで構成される。
本研究では,8つの力学系をモデル化するためのフルFORCEトレーニング手法の性能向上とノイズ堅牢性を示す。
論文 参考訳(メタデータ) (2022-05-26T19:01:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。