論文の概要: Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification
- arxiv url: http://arxiv.org/abs/2603.09257v1
- Date: Tue, 10 Mar 2026 06:43:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.104648
- Title: Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification
- Title(参考訳): 最適輸送によるトランスダクティブ一般化とグラフノード分類への応用
- Authors: MoonJeong Park, Seungbeom Lee, Kyungmin Kim, Jaeseung Heo, Seunghyuk Cho, Shouheng Li, Sangdon Park, Dongwoo Kim,
- Abstract要約: 分布自由な帰納的設定において表現に基づく一般化境界を確立する。
我々の境界は効率的に計算可能であり、グラフノード分類における経験的一般化と強く相関している。
これは深さ依存的な特徴を与え、深さと一般化誤差の間の非単調な関係を捉える。
- 参考スコア(独自算出の注目度): 17.399427621622703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many existing transductive bounds rely on classical complexity measures that are computationally intractable and often misaligned with empirical behavior. In this work, we establish new representation-based generalization bounds in a distribution-free transductive setting, where learned representations are dependent, and test features are accessible during training. We derive global and class-wise bounds via optimal transport, expressed in terms of Wasserstein distances between encoded feature distributions. We demonstrate that our bounds are efficiently computable and strongly correlate with empirical generalization in graph node classification, improving upon classical complexity measures. Additionally, our analysis reveals how the GNN aggregation process transforms the representation distributions, inducing a trade-off between intra-class concentration and inter-class separation. This yields depth-dependent characterizations that capture the non-monotonic relationship between depth and generalization error observed in practice. The code is available at https://github.com/ml-postech/Transductive-OT-Gen-Bound.
- Abstract(参考訳): 既存のトランスダクティブ境界の多くは、計算的に難解であり、しばしば経験的な振る舞いと一致しない古典的な複雑性測度に依存している。
本研究では,学習した表現が依存し,学習中にテスト機能にアクセス可能な分布自由なトランスダクティブ・セッティングにおいて,表現に基づく新しい一般化境界を確立する。
我々は、符号化された特徴分布間のワッサーシュタイン距離で表される最適輸送により、大域的およびクラス的境界を導出する。
我々は,グラフノード分類における経験的一般化と,計算が効率的で強く相関していることを示し,古典的複雑性尺度を改良した。
さらに,GNNアグリゲーションプロセスが表現分布を変換し,クラス内濃度とクラス間分離のトレードオフを引き起こすことを明らかにする。
これは、実際には観測された深さと一般化誤差の間の非単調な関係を捉える、深さ依存的な特徴を与える。
コードはhttps://github.com/ml-postech/Transductive-OT-Gen-Boundで公開されている。
関連論文リスト
- DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Measuring Generalization with Optimal Transport [111.29415509046886]
我々は、マージンを最適輸送コストで正規化する、マージンベースの一般化境界を開発する。
我々の境界は、大規模データセット上でトレーニングデータとネットワークパラメータを与えられた一般化誤差を強く予測する。
論文 参考訳(メタデータ) (2021-06-07T03:04:59Z) - The Role of Mutual Information in Variational Classifiers [47.10478919049443]
クロスエントロピー損失を訓練した符号化に依存する分類器の一般化誤差について検討する。
我々は、一般化誤差が相互情報によって境界付けられた状態が存在することを示す一般化誤差に境界を導出する。
論文 参考訳(メタデータ) (2020-10-22T12:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。