論文の概要: On the Impact of Downstream Tasks on Sampling and Reconstructing Noisy Graph Signals
- arxiv url: http://arxiv.org/abs/2509.10874v1
- Date: Sat, 13 Sep 2025 16:09:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.825808
- Title: On the Impact of Downstream Tasks on Sampling and Reconstructing Noisy Graph Signals
- Title(参考訳): ノイズグラフ信号のサンプリングと再構成における下流タスクの影響について
- Authors: Baskaran Sripathmanathan, Xiaowen Dong, Michael Bronstein,
- Abstract要約: 本稿では,グラフ信号再構成法に適用可能な分類誤差の一般的な理論的特徴付けについて述べる。
線形化グラフ畳み込みネットワークのための新しい最適サンプリング法を導出し、他のグラフ信号処理法よりも改善されたことを示す。
- 参考スコア(独自算出の注目度): 7.874028417458683
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We investigate graph signal reconstruction and sample selection for classification tasks. We present general theoretical characterisations of classification error applicable to multiple commonly used reconstruction methods, and compare that to the classical reconstruction error. We demonstrate the applicability of our results by using them to derive new optimal sampling methods for linearized graph convolutional networks, and show improvement over other graph signal processing based methods.
- Abstract(参考訳): 分類タスクにおけるグラフ信号の再構成とサンプル選択について検討する。
本稿では、複数の一般的な再構成手法に適用可能な分類誤差の一般的な理論的特徴付けを行い、古典的再構成誤差と比較する。
本稿では,線形化グラフ畳み込みネットワークに対する新しい最適サンプリング手法を導出し,他のグラフ信号処理手法よりも優れた結果が得られることを示す。
関連論文リスト
- Graph-Dictionary Signal Model for Sparse Representations of Multivariate Data [49.77103348208835]
グラフの有限集合がラプラシアンの重み付き和を通してデータ分布の関係を特徴付けるグラフ辞書信号モデルを定義する。
本稿では,観測データからグラフ辞書表現を推論するフレームワークを提案する。
我々は,脳活動データに基づく運動画像復号作業におけるグラフ辞書表現を利用して,従来の手法よりも想像的な動きをよりよく分類する。
論文 参考訳(メタデータ) (2024-11-08T17:40:43Z) - On the Optimal Recovery of Graph Signals [10.098114696565865]
グラフ信号処理問題に対して最適あるいはほぼ最適な正規化パラメータを演算する。
本結果は,グラフに基づく学習における古典的最適化手法の新しい解釈を提供する。
半合成グラフ信号処理データセットの数値実験における本手法の可能性について述べる。
論文 参考訳(メタデータ) (2023-04-02T07:18:11Z) - Creating generalizable downstream graph models with random projections [22.690120515637854]
本稿では,グラフ全体にわたってモデルを一般化するグラフ表現学習手法について検討する。
遷移行列の複数のパワーを推定するためにランダムな射影を用いることで、同型不変な特徴の集合を構築することができることを示す。
結果として得られる特徴は、ノードの局所的近傍に関する十分な情報を回復するために使用することができ、他のアプローチと競合する推論を可能にする。
論文 参考訳(メタデータ) (2023-02-17T14:27:00Z) - Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Score matching enables causal discovery of nonlinear additive noise
models [63.93669924730725]
次世代のスケーラブル因果発見手法の設計方法について述べる。
本稿では,スコアのヤコビアンを効率的に近似し,因果グラフを復元する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T21:34:46Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - Self-Supervised Graph Representation Learning via Topology
Transformations [61.870882736758624]
本稿では,グラフデータのノード表現のための自己教師型学習の一般的なパラダイムであるトポロジー変換同変表現学習について述べる。
実験では,提案手法を下流ノードおよびグラフ分類タスクに適用し,提案手法が最先端の教師なし手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-25T06:11:03Z) - Sampling and Recovery of Graph Signals based on Graph Neural Networks [44.76396026242879]
本稿では,グラフ信号のサンプリングとリカバリのための解釈可能なグラフニューラルネットワークを提案する。
提案手法は,ニューラルネットワークの学習能力を活用して,データから様々なグラフ信号モデルを柔軟に学習することができる。
実験では,提案したグラフニューラルサンプリングおよびリカバリモジュールの効果を概説し,各モジュールが様々なグラフ構造やグラフ信号に柔軟に適応できることを見出した。
論文 参考訳(メタデータ) (2020-11-03T01:45:41Z) - Hierarchical regularization networks for sparsification based learning
on noisy datasets [0.0]
階層は、連続的により微細なスケールで特定される近似空間から従う。
各スケールでのモデル一般化を促進するため,複数次元にわたる新規な射影型ペナルティ演算子も導入する。
その結果、合成データセットと実データセットの両方において、データ削減およびモデリング戦略としてのアプローチの性能が示された。
論文 参考訳(メタデータ) (2020-06-09T18:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。