論文の概要: AdaRC: Mitigating Graph Structure Shifts during Test-Time
- arxiv url: http://arxiv.org/abs/2410.06976v1
- Date: Wed, 9 Oct 2024 15:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 23:17:37.984305
- Title: AdaRC: Mitigating Graph Structure Shifts during Test-Time
- Title(参考訳): AdaRC: テスト時間におけるグラフ構造シフトの緩和
- Authors: Wenxuan Bao, Zhichen Zeng, Zhining Liu, Hanghang Tong, Jingrui He,
- Abstract要約: テスト時間適応(TTA)は、ソースドメインに再アクセスすることなく、トレーニング済みのモデルをターゲットドメインに適応できる能力によって注目を集めている。
AdaRCは,グラフの構造シフトに効果的かつ効率的な適応を意図した,革新的なフレームワークである。
- 参考スコア(独自算出の注目度): 66.40525136929398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Powerful as they are, graph neural networks (GNNs) are known to be vulnerable to distribution shifts. Recently, test-time adaptation (TTA) has attracted attention due to its ability to adapt a pre-trained model to a target domain without re-accessing the source domain. However, existing TTA algorithms are primarily designed for attribute shifts in vision tasks, where samples are independent. These methods perform poorly on graph data that experience structure shifts, where node connectivity differs between source and target graphs. We attribute this performance gap to the distinct impact of node attribute shifts versus graph structure shifts: the latter significantly degrades the quality of node representations and blurs the boundaries between different node categories. To address structure shifts in graphs, we propose AdaRC, an innovative framework designed for effective and efficient adaptation to structure shifts by adjusting the hop-aggregation parameters in GNNs. To enhance the representation quality, we design a prediction-informed clustering loss to encourage the formation of distinct clusters for different node categories. Additionally, AdaRC seamlessly integrates with existing TTA algorithms, allowing it to handle attribute shifts effectively while improving overall performance under combined structure and attribute shifts. We validate the effectiveness of AdaRC on both synthetic and real-world datasets, demonstrating its robustness across various combinations of structure and attribute shifts.
- Abstract(参考訳): 強力なグラフニューラルネットワーク(GNN)は、分散シフトに対して脆弱であることが知られている。
近年、テスト時間適応(TTA)が注目されているのは、ソースドメインに再アクセスすることなく、事前学習されたモデルをターゲットドメインに適応できる能力である。
しかし、既存のTTAアルゴリズムは主に、サンプルが独立している視覚タスクの属性シフトのために設計されている。
これらの手法は、ソースグラフとターゲットグラフのノード接続が異なる構造シフトを経験するグラフデータにおいて、性能が良くない。
後者はノード表現の質を著しく低下させ、異なるノードカテゴリの境界を曖昧にします。
グラフにおける構造変化に対処するために,GNNにおけるホップ集約パラメータを調整することにより,構造変化への効果的かつ効率的な適応を目的とした,革新的なフレームワークであるAdaRCを提案する。
表現の質を高めるために,異なるノードカテゴリに対する異なるクラスタの形成を促進するために,予測インフォームドクラスタリング損失を設計する。
さらに、AdaRCは既存のTTAアルゴリズムとシームレスに統合され、属性シフトを効果的に扱うと同時に、構造と属性シフトの組み合わせによる全体的なパフォーマンスを向上させることができる。
我々は,AdaRCが合成データセットと実世界のデータセットの両方に与える影響を検証し,構造と属性のシフトの様々な組み合わせにおける頑健さを実証した。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - AGHINT: Attribute-Guided Representation Learning on Heterogeneous Information Networks with Transformer [4.01252998015631]
本稿では,ノード間特性の相違がベンチマークタスクにおけるHGNNの性能に与える影響について検討する。
我々はTransformer (AGHINT) を用いたAttribute-Guidous Information Networks表現学習モデルを提案する。
AGHINTは、学習プロセスに高次の類似した特徴を直接統合することで、元のグラフ構造の制約を超越する。
論文 参考訳(メタデータ) (2024-04-16T10:30:48Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Structural Re-weighting Improves Graph Domain Adaptation [13.019371337183202]
本研究は,グラフ構造やノード属性による分散シフトの影響について検討する。
構造再重み付け(StruRW)と呼ばれる新しい手法がこの問題に対処するために提案され、合成グラフ、ベンチマークデータセット4つ、高エネルギー物理学における新しい応用についてテストされている。
論文 参考訳(メタデータ) (2023-06-05T20:11:30Z) - ASGNN: Graph Neural Networks with Adaptive Structure [41.83813812538167]
本稿では,アダプティブ構造(ASMP)を用いた新しい解釈可能なメッセージパッシング方式を提案する。
ASMPは、異なるレイヤにおけるメッセージパッシングプロセスが動的に調整されたグラフ上で実行可能であるという意味で適応的である。
論文 参考訳(メタデータ) (2022-10-03T15:10:40Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Variational Co-embedding Learning for Attributed Network Clustering [30.7006907516984]
属性ネットワーククラスタリングの最近の研究は、グラフ畳み込みを利用してノード埋め込みを取得し、同時に埋め込み空間上でクラスタリング割り当てを行う。
属性ネットワーククラスタリング(ANC)のための分散共埋め込み学習モデルを提案する。
ANCは、ノードと属性を同時に埋め込む2つの変分自動エンコーダで構成されている。
論文 参考訳(メタデータ) (2021-04-15T08:11:47Z) - Self-Challenging Improves Cross-Domain Generalization [81.99554996975372]
畳み込みニューラルネットワーク(CNN)は、ラベルと相関する支配的特徴を活性化することにより、画像分類を行う。
ドメイン外データに対するCNNの一般化を著しく改善する簡単なトレーニングである自己整合表現(RSC)を導入する。
RSCはトレーニングデータ上で活性化される主要な機能に対して反復的に挑戦し、ラベルと相関する残りの機能を有効にするようネットワークに強制する。
論文 参考訳(メタデータ) (2020-07-05T21:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。