論文の概要: Graph Semi-Supervised Learning for Point Classification on Data Manifolds
- arxiv url: http://arxiv.org/abs/2506.12197v1
- Date: Fri, 13 Jun 2025 19:52:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.395789
- Title: Graph Semi-Supervised Learning for Point Classification on Data Manifolds
- Title(参考訳): データマニフォールド上の点分類のためのグラフ半教師付き学習
- Authors: Caio F. Deberaldini Netto, Zhiyang Wang, Luana Ruiz,
- Abstract要約: データ多様体上の分類タスクのためのグラフ半教師付き学習フレームワークを提案する。
多様体仮説により、低次元 $mathcalM 部分集合 mathbbRF$ からサンプリングされた点としてデータをモデル化する。
我々は、$mathcalM$から一様サンプリングを行うと、半教師付きタスクの一般化ギャップはグラフサイズの増加とともに減少することを示す。
- 参考スコア(独自算出の注目度): 13.02854405679453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a graph semi-supervised learning framework for classification tasks on data manifolds. Motivated by the manifold hypothesis, we model data as points sampled from a low-dimensional manifold $\mathcal{M} \subset \mathbb{R}^F$. The manifold is approximated in an unsupervised manner using a variational autoencoder (VAE), where the trained encoder maps data to embeddings that represent their coordinates in $\mathbb{R}^F$. A geometric graph is constructed with Gaussian-weighted edges inversely proportional to distances in the embedding space, transforming the point classification problem into a semi-supervised node classification task on the graph. This task is solved using a graph neural network (GNN). Our main contribution is a theoretical analysis of the statistical generalization properties of this data-to-manifold-to-graph pipeline. We show that, under uniform sampling from $\mathcal{M}$, the generalization gap of the semi-supervised task diminishes with increasing graph size, up to the GNN training error. Leveraging a training procedure which resamples a slightly larger graph at regular intervals during training, we then show that the generalization gap can be reduced even further, vanishing asymptotically. Finally, we validate our findings with numerical experiments on image classification benchmarks, demonstrating the empirical effectiveness of our approach.
- Abstract(参考訳): データ多様体上の分類タスクのためのグラフ半教師付き学習フレームワークを提案する。
多様体仮説により、低次元多様体 $\mathcal{M} \subset \mathbb{R}^F$ からサンプリングされた点としてデータをモデル化する。
この多様体は変分オートエンコーダ (VAE) を用いて教師なしの方法で近似され、訓練されたエンコーダはデータを $\mathbb{R}^F$ の座標を表す埋め込みにマッピングする。
幾何学グラフは、埋め込み空間における距離に逆比例してガウス重み付きエッジで構成され、点分類問題をグラフ上の半教師付きノード分類タスクに変換する。
この課題はグラフニューラルネットワーク(GNN)を用いて解決される。
我々の主な貢献は、このデータ-マニフォールド-グラフパイプラインの統計的一般化特性の理論解析である。
我々は、$\mathcal{M}$から一様サンプリングを行うと、半教師付きタスクの一般化ギャップはGNNトレーニングエラーまでグラフサイズの増加とともに減少することを示す。
トレーニング中に一定間隔で少し大きなグラフを再サンプリングする訓練手順を活用すると、一般化ギャップはさらに小さくなり、漸近的に消えることを示す。
最後に,画像分類ベンチマークによる数値実験を行い,提案手法の有効性を実証した。
関連論文リスト
- Generalization of Geometric Graph Neural Networks with Lipschitz Loss Functions [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
複数の実世界のデータセットに対する実験により、この理論結果を検証する。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Learning to Approximate Adaptive Kernel Convolution on Graphs [4.434835769977399]
本稿では,拡散カーネルのスケールによって特徴集約の範囲を制御できる拡散学習フレームワークを提案する。
本モデルは,最先端データセットの性能評価のためのノードワイズ分類のための様々な標準で検証されている。
グラフ分類のための実世界の脳ネットワークデータにも検証され、アルツハイマー分類の実用性を実証している。
論文 参考訳(メタデータ) (2024-01-22T10:57:11Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - From Spectral Graph Convolutions to Large Scale Graph Convolutional
Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、様々なタスクにうまく適用された強力な概念であることが示されている。
古典グラフ理論の関連部分を含むGCNの定義への道を開いた理論を考察する。
論文 参考訳(メタデータ) (2022-07-12T16:57:08Z) - Pseudoinverse Graph Convolutional Networks: Fast Filters Tailored for
Large Eigengaps of Dense Graphs and Hypergraphs [0.0]
Graph Convolutional Networks (GCNs) は、グラフベースのデータセットで半教師付き分類を行うツールとして成功している。
本稿では,三部フィルタ空間が高密度グラフを対象とする新しいGCN変種を提案する。
論文 参考訳(メタデータ) (2020-08-03T08:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。