論文の概要: Outlier-Robust Gromov Wasserstein for Graph Data
- arxiv url: http://arxiv.org/abs/2302.04610v1
- Date: Thu, 9 Feb 2023 12:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 15:53:48.507848
- Title: Outlier-Robust Gromov Wasserstein for Graph Data
- Title(参考訳): グラフデータのためのoutlier-robust gromov wasserstein
- Authors: Lemin Kong, Jiajin Li, Anthony Man-Cho So
- Abstract要約: 我々は、Gromov Wasserstein (GW) 距離のRGWと呼ばれる新しい頑健なバージョンを導入する。
RGWは、$varphi$-divergence に基づくあいまいさ集合の中で楽観的に摂動する限界制約を特徴とする。
我々は,実世界のグラフ学習におけるRGWの有効性を理論的に検証し,その効果を実証する。
- 参考スコア(独自算出の注目度): 28.575516056239575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gromov Wasserstein (GW) distance is a powerful tool for comparing and
aligning probability distributions supported on different metric spaces. It has
become the main modeling technique for aligning heterogeneous data for a wide
range of graph learning tasks. However, the GW distance is known to be highly
sensitive to outliers, which can result in large inaccuracies if the outliers
are given the same weight as other samples in the objective function. To
mitigate this issue, we introduce a new and robust version of the GW distance
called RGW. RGW features optimistically perturbed marginal constraints within a
$\varphi$-divergence based ambiguity set. To make the benefits of RGW more
accessible in practice, we develop a computationally efficient algorithm,
Bregman proximal alternating linearization minimization, with a theoretical
convergence guarantee. Through extensive experimentation, we validate our
theoretical results and demonstrate the effectiveness of RGW on real-world
graph learning tasks, such as subgraph matching and partial shape
correspondence.
- Abstract(参考訳): gromov wasserstein (gw) 距離は、異なる計量空間上で支持される確率分布を比較調整するための強力なツールである。
幅広いグラフ学習タスクのために異種データをアライメントするための主要なモデリング技術となっている。
しかし、GW距離は外れ値に非常に敏感であることが知られており、目的関数の他のサンプルと同じ重みが与えられた場合、大きな不正確な結果になる可能性がある。
この問題を軽減するため、我々はRGWと呼ばれるGW距離の新しい堅牢バージョンを導入する。
RGWは、$\varphi$-divergence に基づくあいまいさ集合の中で楽観的に摂動する境界制約を特徴とする。
rgwの利点をより使いやすくするために、計算効率の良いアルゴリズムであるbregman proximal alternating linearization minimizationを開発し、理論的収束を保証した。
広範な実験を通じて,RGWがグラフマッチングや部分形状対応などの実世界のグラフ学習タスクにおいて有効であることを示す。
関連論文リスト
- Linear Partial Gromov-Wasserstein Embedding [8.23887869467319]
Gromov Wasserstein(GW)問題は、機械学習とデータサイエンスコミュニティへの関心が高まっている。
PGW問題に対する線形化埋め込み手法であるGromov Wasserstein埋め込みを提案する。
古典的 OT 問題に対する線形化手法と同様に、LPGW が計量測度空間の有効な計量を定義することを証明している。
論文 参考訳(メタデータ) (2024-10-22T03:54:52Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Efficient Approximation of Gromov-Wasserstein Distance using Importance
Sparsification [34.865115235547286]
本稿では,Gromov-Wasserstein距離を効率的に近似するために,Spar-GWと呼ばれる新しい重要空間分割法を提案する。
Spar-GW法は任意の地価でGW距離に適用可能であることを示す。
さらに、この方法は、エントロピーGW距離、融合GW距離、不均衡GW距離を含むGW距離の変種を近似するために拡張することができる。
論文 参考訳(メタデータ) (2022-05-26T18:30:40Z) - Orthogonal Gromov-Wasserstein Discrepancy with Efficient Lower Bound [11.086440815804226]
Gromov-Wasserstein (GW) は、最適な輸送データセットに基づいて、構造化されたデータ間のノードグラフを定式化する。
本稿では,代入問題との関係から着想を得て,GWの代理としてGromov-Wasserstein離散性を提案する。
論文 参考訳(メタデータ) (2022-05-12T02:10:56Z) - Learning to Predict Graphs with Fused Gromov-Wasserstein Barycenters [2.169919643934826]
我々はこの問題をFGW損失(Fused Gromov-Wasserstein)を用いて回帰式として定式化する。
本稿では,重みが入力に依存するFGWバリセンタに依存する予測モデルを提案する。
論文 参考訳(メタデータ) (2022-02-08T12:15:39Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Why Approximate Matrix Square Root Outperforms Accurate SVD in Global
Covariance Pooling? [59.820507600960745]
本稿では,前方通過のSVDと後方伝播のPad'e近似を用いて勾配を計算する新しいGCPメタ層を提案する。
提案するメタレイヤは,さまざまなCNNモデルに統合され,大規模および微細なデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-06T08:03:45Z) - Quantized Gromov-Wasserstein [10.592277756185046]
Quantized Gromov Wasserstein(qGW)は、部品を基本的なオブジェクトとして扱い、問題の理論上の上限の階層に収まるメトリクスです。
最適なgwマッチングを近似するアルゴリズムを開発し,アルゴリズムによる高速化とメモリ複雑性の低減を実現する。
我々は、最先端の状況を超えて、既存の文献よりも桁違いに大きいスケールでGWマッチングを適用することができる。
論文 参考訳(メタデータ) (2021-04-05T17:03:20Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。