論文の概要: Semi-relaxed Gromov Wasserstein divergence with applications on graphs
- arxiv url: http://arxiv.org/abs/2110.02753v1
- Date: Wed, 6 Oct 2021 13:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:18:53.627865
- Title: Semi-relaxed Gromov Wasserstein divergence with applications on graphs
- Title(参考訳): 半緩和グロモフ・ワッサーシュタイン発散とグラフへの応用
- Authors: C\'edric Vincent-Cuaz, R\'emi Flamary, Marco Corneli, Titouan Vayer,
Nicolas Courty
- Abstract要約: 半相対的なGromov-Wasserstein分散は,効率的なグラフ辞書学習アルゴリズムに繋がることを示す。
我々は、パーティショニング、クラスタリング、補完といったグラフ上の複雑なタスクに対するその関連性を実証的に示す。
- 参考スコア(独自算出の注目度): 10.394615068526505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Comparing structured objects such as graphs is a fundamental operation
involved in many learning tasks. To this end, the Gromov-Wasserstein (GW)
distance, based on Optimal Transport (OT), has proven to be successful in
handling the specific nature of the associated objects. More specifically,
through the nodes connectivity relations, GW operates on graphs, seen as
probability measures over specific spaces. At the core of OT is the idea of
conservation of mass, which imposes a coupling between all the nodes from the
two considered graphs. We argue in this paper that this property can be
detrimental for tasks such as graph dictionary or partition learning, and we
relax it by proposing a new semi-relaxed Gromov-Wasserstein divergence. Aside
from immediate computational benefits, we discuss its properties, and show that
it can lead to an efficient graph dictionary learning algorithm. We empirically
demonstrate its relevance for complex tasks on graphs such as partitioning,
clustering and completion.
- Abstract(参考訳): グラフなどの構造化オブジェクトを比較することは、多くの学習タスクに関わる基本的な操作である。
この目的のために、最適輸送(OT)に基づくGromov-Wasserstein(GW)距離は、関連する対象の特定の性質を扱うことに成功している。
具体的には、ノード接続関係を通じて、GWは特定の空間上の確率測度と見なされるグラフ上で機能する。
OTの中核は質量保存の概念であり、2つの考慮されたグラフから全てのノード間の結合を課す。
本稿では,この性質はグラフ辞書や分割学習などのタスクに有害であり,新たな半相対型gromov-wassersteinダイバージェンスを提案することで緩和する。
直接計算の利点はさておき,その性質を議論し,効率的なグラフ辞書学習アルゴリズムに導くことができることを示す。
分割、クラスタリング、補完といったグラフ上の複雑なタスクに対する関連性を実証的に示す。
関連論文リスト
- MGNet: Learning Correspondences via Multiple Graphs [78.0117352211091]
学習対応は、不均一な対応分布と低い不整合率で設定された初期対応から正しい対応を見つけることを目的としている。
最近の進歩は、通常、グラフニューラルネットワーク(GNN)を使用して単一のタイプのグラフを構築したり、グローバルなグラフに局所グラフをスタックしてタスクを完了させる。
本稿では,複数の補完グラフを効果的に組み合わせるためのMGNetを提案する。
論文 参考訳(メタデータ) (2024-01-10T07:58:44Z) - Exploiting Edge Features in Graphs with Fused Network Gromov-Wasserstein
Distance [18.522233517515975]
ノードとエッジが特徴を持つグラフを比較するために,Gromov-Wasserstein距離の拡張を導入する。
入力空間または出力空間でグラフが発生する学習タスクにおいて、新しい距離の有効性を実証的に示す。
論文 参考訳(メタデータ) (2023-09-28T17:05:03Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Graph Pooling with Maximum-Weight $k$-Independent Sets [12.251091325930837]
最大ウェイト$k$非依存集合のグラフ理論的概念に基づくグラフ粗化機構を導入する。
我々は、経路長の歪み境界の理論的保証と、粗化グラフにおける重要な位相特性を保存できることを証明した。
論文 参考訳(メタデータ) (2022-08-06T14:12:47Z) - Collaborative likelihood-ratio estimation over graphs [55.98760097296213]
グラフに基づく相対的制約のない最小二乗重要度フィッティング(GRULSIF)
我々はこの考え方を、グラフベースの相対的非制約最小二乗重要度フィッティング(GRULSIF)と呼ばれる具体的な非パラメトリック手法で開発する。
我々は、ノード当たりの観測回数、グラフのサイズ、およびグラフ構造がタスク間の類似性をどの程度正確にエンコードしているかといった変数が果たす役割を強調する、協調的なアプローチの収束率を導出する。
論文 参考訳(メタデータ) (2022-05-28T15:37:03Z) - Online Graph Dictionary Learning [10.394615068526505]
本論文では,Gromov Wassersteinの発散をデータフィッティング用語として用いるオンライングラフ辞書学習手法を提案する。
私たちの研究では、グラフはノードの対関係を通じてエンコードされ、グラフ原子の凸結合としてモデル化されます。
私たちのアプローチはラベル付きグラフに自然に拡張され、埋め込み空間におけるGromov Wassersteinの高速近似として使用できる新しい上界によって完了されます。
論文 参考訳(メタデータ) (2021-02-12T14:39:28Z) - Partial Gromov-Wasserstein Learning for Partial Graph Matching [28.47269200800775]
部分的なGromov-Wasserstein学習フレームワークは2つのグラフを部分的にマッチングするために提案される。
私たちのフレームワークはF1スコアを少なくとも20%以上改善できます。
論文 参考訳(メタデータ) (2020-12-02T14:56:22Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Wasserstein Embedding for Graph Learning [33.90471037116372]
Wasserstein Embedding for Graph Learning (WEGL)は、グラフ全体をベクトル空間に埋め込むフレームワークである。
グラフ間の類似性をノード埋め込み分布間の類似性の関数として定義する上で,新たな知見を活用する。
各種ベンチマークグラフ固有性予測タスクにおける新しいグラフ埋め込み手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-16T18:23:00Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。