論文の概要: Bi-Directional Multi-Scale Graph Dataset Condensation via Information Bottleneck
- arxiv url: http://arxiv.org/abs/2412.17355v1
- Date: Mon, 23 Dec 2024 07:32:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:56:01.354203
- Title: Bi-Directional Multi-Scale Graph Dataset Condensation via Information Bottleneck
- Title(参考訳): インフォメーション・ボトルネックによる双方向マルチスケールグラフデータセットの凝縮
- Authors: Xingcheng Fu, Yisen Gao, Beining Yang, Yuxuan Wu, Haodong Qian, Qingyun Sun, Xianxian Li,
- Abstract要約: 本稿では,新しいGNN中心の双方向マルチスケールグラフデータセット圧縮フレームワークを提案する。
本稿では,マルチスケールグラフ凝縮のための大規模・小・小の双方を対象とする統一パラダイムについて検討する。
- 参考スコア(独自算出の注目度): 10.680304093708147
- License:
- Abstract: Dataset condensation has significantly improved model training efficiency, but its application on devices with different computing power brings new requirements for different data sizes. Thus, condensing multiple scale graphs simultaneously is the core of achieving efficient training in different on-device scenarios. Existing efficient works for multi-scale graph dataset condensation mainly perform efficient approximate computation in scale order (large-to-small or small-to-large scales). However, for non-Euclidean structures of sparse graph data, these two commonly used paradigms for multi-scale graph dataset condensation have serious scaling down degradation and scaling up collapse problems of a graph. The main bottleneck of the above paradigms is whether the effective information of the original graph is fully preserved when consenting to the primary sub-scale (the first of multiple scales), which determines the condensation effect and consistency of all scales. In this paper, we proposed a novel GNN-centric Bi-directional Multi-Scale Graph Dataset Condensation (BiMSGC) framework, to explore unifying paradigms by operating on both large-to-small and small-to-large for multi-scale graph condensation. Based on the mutual information theory, we estimate an optimal ``meso-scale'' to obtain the minimum necessary dense graph preserving the maximum utility information of the original graph, and then we achieve stable and consistent ``bi-directional'' condensation learning by optimizing graph eigenbasis matching with information bottleneck on other scales. Encouraging empirical results on several datasets demonstrates the significant superiority of the proposed framework in graph condensation at different scales.
- Abstract(参考訳): データセットの凝縮はモデルのトレーニング効率を大幅に向上させたが、異なる計算能力を持つデバイスに応用することで、異なるデータサイズに対する新たな要件がもたらされた。
したがって、複数のスケールグラフを同時に凝縮することは、デバイス上で異なるシナリオで効率的なトレーニングを実現するための中核となる。
既存のマルチスケールグラフデータセット凝縮のための効率的な研究は、主にスケールオーダー(大規模または小規模または大規模)の効率的な近似計算を行う。
しかしながら、スパースグラフデータの非ユークリッド構造では、この2つの一般的なマルチスケールグラフデータセット凝縮のパラダイムは、グラフの分解と崩壊問題を深刻にスケールダウンさせる。
上記のパラダイムの主なボトルネックは、すべてのスケールの凝縮効果と整合性を決定する一次サブスケール(複数スケールの最初のもの)に同意するときに、元のグラフの有効情報が完全に保存されているかどうかである。
本稿では,GNN中心の双方向マルチスケールグラフデータセット・コンデンサ(BiMSGC)フレームワークを提案する。
相互情報理論に基づいて、原グラフの最大実用性情報を保存するために必要な最小限の高密度グラフを得るために最適な「メソスケール」を推定し、他のスケールにおける情報ボトルネックと一致するグラフ固有ベイジを最適化することにより、安定かつ一貫した「二方向」凝縮学習を実現する。
実験結果を複数のデータセットに拡張することにより、異なるスケールでのグラフ凝縮における提案されたフレームワークの顕著な優位性を示す。
関連論文リスト
- Simple Graph Condensation [30.85754566420301]
グラフ凝縮(Graph condensation)は、グラフニューラルネットワーク(GNN)を小さな凝縮グラフにチューニングし、大規模なオリジナルグラフで使用する。
本稿では,SimGC(Simple Graph Condensation)フレームワークについて紹介する。
SimGCは既存のグラフ凝縮法に比べて最大10倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-22T05:04:48Z) - Sparse Training of Discrete Diffusion Models for Graph Generation [45.103518022696996]
SparseDiffは、ほとんど全ての大きなグラフがスパースであるという観察に基づく、新しい拡散モデルである。
エッジのサブセットを選択することで、SparseDiffは、ノイズ発生過程とノイズ発生ネットワーク内のスパースグラフ表現を効果的に活用する。
本モデルでは,小規模・大規模両方のデータセットにおいて,複数のメトリクスにわたる最先端性能を示す。
論文 参考訳(メタデータ) (2023-11-03T16:50:26Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Condensing Graphs via One-Step Gradient Matching [50.07587238142548]
ネットワーク重みを訓練せずに1ステップのみの勾配マッチングを行う1ステップ勾配マッチング方式を提案する。
我々の理論的分析は、この戦略が実際のグラフの分類損失を減少させる合成グラフを生成することができることを示している。
特に、元のパフォーマンスの最大98%を近似しながら、データセットサイズを90%削減することが可能です。
論文 参考訳(メタデータ) (2022-06-15T18:20:01Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z) - Multiple Graph Learning for Scalable Multi-view Clustering [26.846642220480863]
少数のアンカー点とテンソルシャッテンp-ノルム最小化による効率的な多重グラフ学習モデルを提案する。
具体的には、各ビューに対してアンカーグラフを用いて、隠蔽かつトラクタブルな大きなグラフを構築する。
本研究では,データサイズと線形にスケールする効率的なアルゴリズムを開発し,提案したモデルを解く。
論文 参考訳(メタデータ) (2021-06-29T13:10:56Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z) - Adaptive Graph Auto-Encoder for General Data Clustering [90.8576971748142]
グラフベースのクラスタリングは、クラスタリング領域において重要な役割を果たす。
グラフ畳み込みニューラルネットワークに関する最近の研究は、グラフ型データにおいて驚くべき成功を収めている。
本稿では,グラフの生成的視点に応じて適応的にグラフを構成する汎用データクラスタリングのためのグラフ自動エンコーダを提案する。
論文 参考訳(メタデータ) (2020-02-20T10:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。