論文の概要: HyperEF: Spectral Hypergraph Coarsening by Effective-Resistance
Clustering
- arxiv url: http://arxiv.org/abs/2210.14813v1
- Date: Wed, 26 Oct 2022 16:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 15:25:54.247475
- Title: HyperEF: Spectral Hypergraph Coarsening by Effective-Resistance
Clustering
- Title(参考訳): HyperEF: 有効抵抗クラスタリングによるスペクトルハイパーグラフの粗大化
- Authors: Ali Aghdaei, Zhuo Feng
- Abstract要約: 本稿では,大規模ハイパーグラフのスペクトル粗化(分解)のためのスケーラブルなアルゴリズムフレームワーク(HyperEF)を提案する。
単純なグラフの低抵抗径分解のための最新の理論フレームワークによって動機付けられたHyperEFは、大規模なハイパーグラフを複数のノードクラスタに分解することを目指している。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper introduces a scalable algorithmic framework (HyperEF) for spectral
coarsening (decomposition) of large-scale hypergraphs by exploiting hyperedge
effective resistances. Motivated by the latest theoretical framework for
low-resistance-diameter decomposition of simple graphs, HyperEF aims at
decomposing large hypergraphs into multiple node clusters with only a few
inter-cluster hyperedges. The key component in HyperEF is a nearly-linear time
algorithm for estimating hyperedge effective resistances, which allows
incorporating the latest diffusion-based non-linear quadratic operators defined
on hypergraphs. To achieve good runtime scalability, HyperEF searches within
the Krylov subspace (or approximate eigensubspace) for identifying the
nearly-optimal vectors for approximating the hyperedge effective resistances.
In addition, a node weight propagation scheme for multilevel spectral
hypergraph decomposition has been introduced for achieving even greater node
coarsening ratios. When compared with state-of-the-art hypergraph partitioning
(clustering) methods, extensive experiment results on real-world VLSI designs
show that HyperEF can more effectively coarsen (decompose) hypergraphs without
losing key structural (spectral) properties of the original hypergraphs, while
achieving over $70\times$ runtime speedups over hMetis and $20\times$ speedups
over HyperSF.
- Abstract(参考訳): 本稿では,大規模ハイパーグラフのスペクトル粗化(分解)のための拡張性のあるアルゴリズムフレームワーク(HyperEF)を提案する。
単純なグラフの低抵抗径分解のための最新の理論フレームワークによって動機付けられたHyperEFは、大規模ハイパーグラフを少数のクラスタ間ハイパーエッジを持つ複数のノードクラスタに分解することを目指している。
HyperEFのキーコンポーネントは、ハイパーエッジ効果抵抗を推定するためのほぼ線形時間アルゴリズムであり、ハイパーグラフ上で定義された最新の拡散ベースの非線形二次作用素を組み込むことができる。
優れたランタイムスケーラビリティを実現するため、HyperEFはKrylov部分空間(または近似固有部分空間)内を探索し、ハイパーエッジ有効抵抗を近似するためのほぼ最適ベクトルを特定する。
さらに,マルチレベルスペクトルハイパーグラフ分解のためのノード重みの伝搬方式を導入し,さらに大きなノード粗い比を実現した。
最先端のハイパーグラフパーティショニング(クラスタリング)法と比較すると、実世界のVLSI設計における広範な実験結果から、HyperEFは元のハイパーグラフの重要な構造(スペクトル)特性を失うことなく、より効果的にハイパーグラフを粗く(分解する)ことができ、hMetisと20ドル以上のランタイムスピードアップを達成できる。
関連論文リスト
- Scalable and Effective Negative Sample Generation for Hyperedge Prediction [55.9298019975967]
ハイパーエッジ予測は、Webベースのアプリケーションにおける複雑なマルチエンタリティ相互作用を理解するために不可欠である。
従来の手法では、正と負のインスタンスの不均衡により、高品質な負のサンプルを生成するのが困難であることが多い。
本稿では,これらの課題に対処するために拡散モデルを利用するハイパーエッジ予測(SEHP)フレームワークのスケーラブルで効果的な負のサンプル生成について述べる。
論文 参考訳(メタデータ) (2024-11-19T09:16:25Z) - SHyPar: A Spectral Coarsening Approach to Hypergraph Partitioning [4.110108749051657]
大規模ハイパーグラフのためのマルチレベルスペクトルフレームワークSHyParを導入し,ハイパーエッジ有効抵抗とフローベースコミュニティ検出技術を利用した。
SHyParの鍵となるコンポーネントは、ハイパーグラフ粗化のためのフローベースの局所クラスタリングスキームであり、最大フローベースのアルゴリズムを組み込んで、コンダクタンスを大幅に改善したノードを生成する。
論文 参考訳(メタデータ) (2024-10-09T03:29:47Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - A Unified View Between Tensor Hypergraph Neural Networks And Signal
Denoising [7.083679120873857]
テンソル・ハイパーグラフ畳み込みネットワーク(T-HGCN)がハイパーグラフ上の高次相互作用を維持するための強力なアーキテクチャとして登場したことを示す。
さらに,ハイパーGSD問題に基づくテンソル・ハイアグラフ反復ネットワーク(T-HGIN)を設計し,各層に複数ステップの更新手法を適用する。
論文 参考訳(メタデータ) (2023-09-15T13:19:31Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Hypergraphs with Edge-Dependent Vertex Weights: p-Laplacians and
Spectral Clustering [29.400924845055865]
エッジ依存重み(EDVW)を組み込んだ最近提案されたハイパーグラフモデルのp-ラプラシアンおよびスペクトルクラスタリングについて検討する。
我々は、ハイパーグラフをEDVWで変換し、スペクトル理論がより発展する部分モジュラーハイパーグラフに変換する。
p-ラプラシアンやチェーガーの不等式のような既存の概念や定理は、部分モジュラーハイパーグラフ設定の下で提案され、EDVWでハイパーグラフへ直接拡張することができる。
論文 参考訳(メタデータ) (2022-08-15T22:29:00Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - HyperSF: Spectral Hypergraph Coarsening via Flow-based Local Clustering [9.438207505148947]
本稿では,ハイパーグラフのスペクトル(構造)特性を保存するために,効率的なスペクトルハイパーグラフ粗大化手法を提案する。
提案手法は,ハイパーグラフクラスタリングのマルチウェイコンダクタンスを大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-08-17T22:20:23Z) - Learning Spatial-Spectral Prior for Super-Resolution of Hyperspectral
Imagery [79.69449412334188]
本稿では,最先端の残差学習をベースとした単一グレー/RGB画像の超解像化手法について検討する。
本稿では,空間情報とハイパースペクトルデータのスペクトル間の相関をフル活用するための空間スペクトル先行ネットワーク(SSPN)を提案する。
実験結果から,SSPSR法により高分解能高分解能高分解能画像の詳細が得られた。
論文 参考訳(メタデータ) (2020-05-18T14:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。