論文の概要: Scalable Hypergraph Structure Learning with Diverse Smoothness Priors
- arxiv url: http://arxiv.org/abs/2504.03583v1
- Date: Fri, 04 Apr 2025 16:47:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:47:14.676971
- Title: Scalable Hypergraph Structure Learning with Diverse Smoothness Priors
- Title(参考訳): 多重平滑性事前学習によるスケーラブルハイパーグラフ構造学習
- Authors: Benjamin T. Brown, Haoxiang Zhang, Daniel L. Lau, Gonzalo R. Arce,
- Abstract要約: そこで本研究では,前処理の滑らかさに基づいて時系列信号からハイパーグラフを復元するハイパーグラフ学習手法を提案する。
我々は、他の最先端ハイパーグラフ推論手法よりも精度が向上したことを示す。
- 参考スコア(独自算出の注目度): 7.559720049837459
- License:
- Abstract: In graph signal processing, learning the weighted connections between nodes from a set of sample signals is a fundamental task when the underlying relationships are not known a priori. This task is typically addressed by finding a graph Laplacian on which the observed signals are smooth. With the extension of graphs to hypergraphs - where edges can connect more than two nodes - graph learning methods have similarly been generalized to hypergraphs. However, the absence of a unified framework for calculating total variation has led to divergent definitions of smoothness and, consequently, differing approaches to hyperedge recovery. We confront this challenge through generalization of several previously proposed hypergraph total variations, subsequently allowing ease of substitution into a vector based optimization. To this end, we propose a novel hypergraph learning method that recovers a hypergraph topology from time-series signals based on a smoothness prior. Our approach addresses key limitations in prior works, such as hyperedge selection and convergence issues, by formulating the problem as a convex optimization solved via a forward-backward-forward algorithm, ensuring guaranteed convergence. Additionally, we introduce a process that simultaneously limits the span of the hyperedge search and maintains a valid hyperedge selection set. In doing so, our method becomes scalable in increasingly complex network structures. The experimental results demonstrate improved performance, in terms of accuracy, over other state-of-the-art hypergraph inference methods; furthermore, we empirically show our method to be robust to total variation terms, biased towards global smoothness, and scalable to larger hypergraphs.
- Abstract(参考訳): グラフ信号処理において、サンプル信号の集合からノード間の重み付けされた接続を学習することは、基礎となる関係が先駆的でない場合の基本課題である。
この課題は通常、観測された信号が滑らかなグラフラプラシアンの発見によって解決される。
グラフのハイパーグラフへの拡張 - エッジが2つ以上のノードを接続できる - により、グラフ学習法も同様にハイパーグラフに一般化されている。
しかし、全変動を計算するための統一的な枠組みが存在しないことは、滑らかさの定義を多様化させ、その結果、ハイパーエッジ回復へのアプローチが異なる結果となった。
提案したいくつかのハイパーグラフ全変分を一般化し、ベクトルベース最適化への置換を容易にすることで、この問題に対処する。
そこで本研究では,前処理の滑らかさに基づいて時系列信号からハイパーグラフトポロジを復元するハイパーグラフ学習手法を提案する。
提案手法は,前向きのアルゴリズムを用いて解いた凸最適化としてこの問題を定式化し,収束を保証することで,ハイパーエッジ選択や収束問題などの先行研究における鍵となる限界に対処する。
さらに、ハイパーエッジ検索の幅を同時に制限し、有効なハイパーエッジ選択セットを維持するプロセスを導入する。
これにより、より複雑なネットワーク構造において、我々の手法はスケーラブルになる。
さらに,本手法が全変動項に頑健であること,大域的滑らか性に偏り,大規模ハイパーグラフに拡張可能であることを実証的に示す。
関連論文リスト
- SPHINX: Structural Prediction using Hypergraph Inference Network [19.853413818941608]
本稿では,非教師付き手法で遅延ハイパーグラフ構造を推論するモデルであるハイパーグラフ推論ネットワーク(SPHINX)を用いた構造予測を提案する。
k-サブセットサンプリングの最近の進歩は、離散ハイパーグラフ構造を生成するのに適したツールであることを示す。
結果として得られるモデルは、現代のハイパーグラフニューラルネットワークに必要な高次構造を生成することができる。
論文 参考訳(メタデータ) (2024-10-04T07:49:57Z) - Disentangled Representation Learning with the Gromov-Monge Gap [65.73194652234848]
乱れのないデータから歪んだ表現を学習することは、機械学習における根本的な課題である。
本稿では,2次最適輸送に基づく非交叉表現学習手法を提案する。
提案手法の有効性を4つの標準ベンチマークで示す。
論文 参考訳(メタデータ) (2024-07-10T16:51:32Z) - Hypergraph Structure Inference From Data Under Smoothness Prior [41.43504601820411]
本稿では,ラベル付きデータを監視対象とせずに,潜在的なハイパーエッジの確率を推定する手法を提案する。
本稿では,この手法を用いてハイパーグラフ構造とノード特徴の関係を確率論的モデリングにより導出する。
本手法は,既存のハイパーグラフ構造推定法よりも効率的にデータから有意義なハイパーグラフ構造を学習できることを示す。
論文 参考訳(メタデータ) (2023-08-27T18:28:58Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Accelerated Graph Learning from Smooth Signals [10.426964757656743]
高速な双対ベース近位勾配アルゴリズムは, 強い凸, 滑らか性に則ったネットワーク逆問題に対処するために開発された。
既存の解法とは異なり、新しい反復法はグローバル収束率を保証するとともに、追加のステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2021-10-19T01:02:57Z) - HyperSF: Spectral Hypergraph Coarsening via Flow-based Local Clustering [9.438207505148947]
本稿では,ハイパーグラフのスペクトル(構造)特性を保存するために,効率的なスペクトルハイパーグラフ粗大化手法を提案する。
提案手法は,ハイパーグラフクラスタリングのマルチウェイコンダクタンスを大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-08-17T22:20:23Z) - Multilayer Graph Clustering with Optimized Node Embedding [70.1053472751897]
多層グラフクラスタリングは、グラフノードをカテゴリまたはコミュニティに分割することを目指しています。
与えられた多層グラフの層をクラスタリングに親しみやすい埋め込みを提案する。
実験の結果,本手法は著しい改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2021-03-30T17:36:40Z) - Community Detection in General Hypergraph via Graph Embedding [1.4213973379473654]
本研究では,一般のハイパーグラフネットワーク,均一あるいは非均一なコミュニティ構造を検出する新しい方法を提案する。
提案手法では,非一様ハイパーグラフを均一なマルチハイパーグラフに拡張するヌルを導入し,低次元ベクトル空間にマルチハイパーグラフを埋め込む。
論文 参考訳(メタデータ) (2021-03-28T03:23:03Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z) - Online Dense Subgraph Discovery via Blurred-Graph Feedback [87.9850024070244]
我々は高密度サブグラフ発見のための新しい学習問題を導入する。
まず,確率の高いほぼ最適解を求めるエッジ時間アルゴリズムを提案する。
そして、理論的保証のあるよりスケーラブルなアルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-06-24T11:37:33Z) - Offline detection of change-points in the mean for stationary graph
signals [55.98760097296213]
グラフ信号定常性の概念に依存するオフライン手法を提案する。
我々の検出器は、漸近的でない不等式オラクルの証拠を伴っている。
論文 参考訳(メタデータ) (2020-06-18T15:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。