論文の概要: TAAM:Inductive Graph-Class Incremental Learning with Task-Aware Adaptive Modulation
- arxiv url: http://arxiv.org/abs/2602.08036v1
- Date: Sun, 08 Feb 2026 16:11:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.94495
- Title: TAAM:Inductive Graph-Class Incremental Learning with Task-Aware Adaptive Modulation
- Title(参考訳): TAAM:タスク認識適応型変調を用いたインダクティブグラフクラスインクリメンタルラーニング
- Authors: Jingtao Liu, Xinming Zhang,
- Abstract要約: 固定されたGNNバックボーンの推論過程を導くためのタスク・アウェア適応変調(TAAM)を提案する。
新しいタスクごとに、専用のNSMがトレーニングされ、凍結され、"Expert Module"として機能する。
これらのモジュールは、共有GNNバックボーンの計算フローに対して、詳細なノード適応適応変調を行う。
- 参考スコア(独自算出の注目度): 3.780931979011216
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Graph Continual Learning (GCL) aims to solve the challenges of streaming graph data. However, current methods often depend on replay-based strategies, which raise concerns like memory limits and privacy issues, while also struggling to resolve the stability-plasticity dilemma. In this paper, we suggest that lightweight, task-specific modules can effectively guide the reasoning process of a fixed GNN backbone. Based on this idea, we propose Task-Aware Adaptive Modulation (TAAM). The key component of TAAM is its lightweight Neural Synapse Modulators (NSMs). For each new task, a dedicated NSM is trained and then frozen, acting as an "expert module." These modules perform detailed, node-attentive adaptive modulation on the computational flow of a shared GNN backbone. This setup ensures that new knowledge is kept within compact, task-specific modules, naturally preventing catastrophic forgetting without using any data replay. Additionally, to address the important challenge of unknown task IDs in real-world scenarios, we propose and theoretically prove a novel method named Anchored Multi-hop Propagation (AMP). Notably, we find that existing GCL benchmarks have flaws that can cause data leakage and biased evaluations. Therefore, we conduct all experiments in a more rigorous inductive learning scenario. Extensive experiments show that TAAM comprehensively outperforms state-of-the-art methods across eight datasets. Code and Datasets are available at: https://github.com/1iuJT/TAAM_AAMAS2026.
- Abstract(参考訳): Graph Continual Learning(GCL)は、グラフデータのストリーミングの課題を解決することを目的としている。
しかし、現在の手法は、しばしばリプレイベースの戦略に依存し、メモリ制限やプライバシー問題などの懸念を提起する一方で、安定性と可塑性のジレンマを解決するのに苦労する。
本稿では, タスク固有のモジュールが, 固定されたGNNバックボーンの推論過程を効果的に導くことができることを示唆する。
この考え方に基づいて,タスク認識適応変調(TAAM)を提案する。
TAAMの重要なコンポーネントは軽量なNeural Synapse Modulator (NSM)である。
新しいタスクごとに、専用のNSMがトレーニングされ、凍結され、"Expert Module"として機能する。
これらのモジュールは、共有GNNバックボーンの計算フローに対して、詳細なノード適応適応変調を行う。
この設定により、新しい知識がコンパクトでタスク固有のモジュール内に保持され、データ再生を使わずに破滅的な忘れを自然に防ぐことができる。
さらに,現実シナリオにおける未知タスクIDの重要な課題に対処するため,Anchored Multi-hop Propagation (AMP) という新しい手法を提案し,理論的に検証する。
特に、既存のGCLベンチマークには、データ漏洩やバイアス評価を引き起こす可能性のある欠陥がある。
したがって、より厳密な帰納的学習シナリオで全ての実験を行う。
大規模な実験によると、TAAMは8つのデータセットで最先端のメソッドを総合的に上回っている。
コードとデータセットは、https://github.com/1iuJT/TAAM_AAMAS2026で入手できる。
関連論文リスト
- Task-Aware Adaptive Modulation: A Replay-Free and Resource-Efficient Approach For Continual Graph Learning [3.780931979011216]
これらの課題を克服する鍵は、データ再生やネットワーク全体を微調整することではなく、凍結したバックボーンの内部計算フローを動的に調節することにある。
この知見に感化されて、我々は、安定塑性ジレンマをナビゲートするための新しい経路をグラフ化した、リプレイフリーでリソース効率の良いアプローチであるタスク・アウェア・アダプティブ・モジュレーション(TAAM)を提案する。
論文 参考訳(メタデータ) (2025-08-31T08:04:43Z) - Can LLMs Alleviate Catastrophic Forgetting in Graph Continual Learning? A Systematic Study [44.10314246637838]
グラフ構造データを含む実世界のデータはしばしばストリーミング方式で配信されるため、学習システムは新たな知識を継続的に取得する必要がある。
本稿では,従来のGNNベースラインを約20%超えたシンプルなグラフ連続学習手法であるSimple Graph Continual Learning(SimGCL)を提案する。
論文 参考訳(メタデータ) (2025-05-24T13:43:29Z) - Federated Continual Instruction Tuning [39.344583304181135]
フェデレートラーニング(FL)は、すべての分散データとトレーニングリソースを活用して、共同トレーニングのオーバーヘッドを軽減する可能性がある。
本稿では,この実世界の課題をモデル化するために,FCIT(Federated Continual Instruction Tuning)ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-03-17T07:58:06Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Modular Neural Network Approaches for Surgical Image Recognition [0.0]
本稿では,DCSS不安定性分類のためのモジュール型学習の異なるアーキテクチャを導入,評価する。
実験の結果,モジュール型学習は非モジュール型システムと比較して性能が向上することがわかった。
第2部では,肩関節鏡画像への自己訓練によるデータラベリングとセグメンテーションのアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-17T22:28:16Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - Learning Label Modular Prompts for Text Classification in the Wild [56.66187728534808]
そこで本研究では,非定常学習/テスト段階の異なるテキスト分類手法を提案する。
複雑なタスクをモジュラー成分に分解することで、そのような非定常環境下での堅牢な一般化が可能になる。
テキスト分類タスクのためのラベルモジュール型プロンプトチューニングフレームワークMODcularPROMPTを提案する。
論文 参考訳(メタデータ) (2022-11-30T16:26:38Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Winning solutions and post-challenge analyses of the ChaLearn AutoDL
challenge 2019 [112.36155380260655]
本稿では,ChaLearnのAutoDLチャレンジシリーズの結果と今後の課題について述べる。
その結果,一般的なニューラルネットワーク探索(NAS)は実用的ではなかったものの,DL手法が支配的であったことが示唆された。
メタラーナー"、"データインジェクタ"、"モデルセレクタ"、"モデル/ラーナー"、"評価器"を特徴とする、ハイレベルなモジュール化組織が登場した。
論文 参考訳(メタデータ) (2022-01-11T06:21:18Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。