論文の概要: Convergent Boosted Smoothing for Modeling Graph Data with Tabular Node
Features
- arxiv url: http://arxiv.org/abs/2110.13413v1
- Date: Tue, 26 Oct 2021 04:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 05:14:33.791955
- Title: Convergent Boosted Smoothing for Modeling Graph Data with Tabular Node
Features
- Title(参考訳): 表型ノード特徴を用いたグラフデータモデリングのためのconvergent boosted smoothing
- Authors: Jiuhai Chen, Jonas Mueller, Vassilis N. Ioannidis, Soji Adeshina,
Yangkun Wang, Tom Goldstein, David Wipf
- Abstract要約: 本稿では,グラフ伝播ステップでブースティングを反復するフレームワークを提案する。
我々のアプローチは、原則化されたメタロス関数に固定されている。
様々な非イドグラフデータセットに対して,本手法は同等あるいは優れた性能を実現する。
- 参考スコア(独自算出の注目度): 46.052312251801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For supervised learning with tabular data, decision tree ensembles produced
via boosting techniques generally dominate real-world applications involving
iid training/test sets. However for graph data where the iid assumption is
violated due to structured relations between samples, it remains unclear how to
best incorporate this structure within existing boosting pipelines. To this
end, we propose a generalized framework for iterating boosting with graph
propagation steps that share node/sample information across edges connecting
related samples. Unlike previous efforts to integrate graph-based models with
boosting, our approach is anchored in a principled meta loss function such that
provable convergence can be guaranteed under relatively mild assumptions.
Across a variety of non-iid graph datasets with tabular node features, our
method achieves comparable or superior performance than both tabular and graph
neural network models, as well as existing hybrid strategies that combine the
two. Beyond producing better predictive performance than recently proposed
graph models, our proposed techniques are easy to implement, computationally
more efficient, and enjoy stronger theoretical guarantees (which make our
results more reproducible).
- Abstract(参考訳): 表形式のデータを用いた教師あり学習では、強化技術によって生成された決定木アンサンブルが、一般にidトレーニング/テストセットを含む現実世界のアプリケーションを支配している。
しかし, サンプル間の構造的関係から, iid仮定に違反するグラフデータについては, この構造を既存のブースティングパイプラインに組み込む方法が不明である。
そこで本研究では,関連するサンプルを接続するエッジ間でノード/サンプル情報を共有するグラフ伝搬ステップによるブースティングを反復する汎用フレームワークを提案する。
グラフベースのモデルとブースティングを統合する以前の取り組みとは異なり、このアプローチは、比較的穏やかな仮定の下で証明可能な収束を保証できるように、原則付きメタ損失関数に固定されている。
グラフノード特徴を持つ様々な非イドグラフデータセットに対して,本手法は,グラフニューラルネットワークモデルとグラフニューラルネットワークモデルの両方と同等あるいは優れた性能を実現するとともに,この2つを組み合わせた既存ハイブリッド戦略を実現する。
最近提案されたグラフモデルよりも優れた予測性能が得られるだけでなく、提案手法は実装が容易で、計算効率が良く、より強力な理論的保証を享受できます。
関連論文リスト
- Virtual Node Generation for Node Classification in Sparsely-Labeled Graphs [2.0060301665996016]
本稿では,グラフに付加されたラベル付きノードとして,少数の高品質な合成ノードを注入する新しいノード生成手法を提案する。
一般的なグラフ事前学習(自己教師付き学習)、半教師付き学習、メタ学習法と互換性がある。
実験では、公開されている10のデータセットに対して、14のベースラインに対して統計的に有意なパフォーマンス改善を実証した。
論文 参考訳(メタデータ) (2024-09-12T02:36:44Z) - Contrastive Learning for Non-Local Graphs with Multi-Resolution
Structural Views [1.4445779250002606]
本稿では,グラフ上の拡散フィルタを統合する新しい多視点コントラスト学習手法を提案する。
複数のグラフビューを拡張として組み込むことで、異種グラフの構造的等価性を捉える。
論文 参考訳(メタデータ) (2023-08-19T17:42:02Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z) - Residual Correlation in Graph Neural Network Regression [39.54530450932135]
我々は条件付き独立仮定が予測力を著しく制限していることを示します。
この問題を解釈可能かつ効率的なフレームワークで解決する。
我々のフレームワークは、競合するベースラインよりもかなり高い精度を実現している。
論文 参考訳(メタデータ) (2020-02-19T16:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。