論文の概要: Hypergraph Learning with Line Expansion
- arxiv url: http://arxiv.org/abs/2005.04843v5
- Date: Tue, 8 Sep 2020 20:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 19:53:27.433866
- Title: Hypergraph Learning with Line Expansion
- Title(参考訳): 線拡張によるハイパーグラフ学習
- Authors: Chaoqi Yang, Ruijie Wang, Shuochao Yao, Tarek Abdelzaher
- Abstract要約: 本稿では,ハイパーグラフ学習のためのEmphline expansion (LE) という新しいハイパーグラフの定式化を提案する。
提案手法は,既存のグラフ学習アルゴリズムを高次構造に適合させる。
提案手法を5つのハイパーグラフデータセット上で評価し,提案手法がSOTAベースラインを有意差で上回ることを示す。
- 参考スコア(独自算出の注目度): 7.933465724913661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous hypergraph expansions are solely carried out on either vertex level
or hyperedge level, thereby missing the symmetric nature of data co-occurrence,
and resulting in information loss. To address the problem, this paper treats
vertices and hyperedges equally and proposes a new hypergraph formulation named
the \emph{line expansion (LE)} for hypergraphs learning. The new expansion
bijectively induces a homogeneous structure from the hypergraph by treating
vertex-hyperedge pairs as "line nodes". By reducing the hypergraph to a simple
graph, the proposed \emph{line expansion} makes existing graph learning
algorithms compatible with the higher-order structure and has been proven as a
unifying framework for various hypergraph expansions. We evaluate the proposed
line expansion on five hypergraph datasets, the results show that our method
beats SOTA baselines by a significant margin.
- Abstract(参考訳): 従来のハイパーグラフ展開は頂点レベルまたはハイパーエッジレベルでのみ実行されるため、データ共起の対称性が欠如し、情報損失が生じる。
この問題に対処するため,本論文は頂点とハイパーエッジを等しく扱い,ハイパーグラフ学習のための新しいハイパーグラフ定式化である \emph{line expansion (le)" を提案する。
新しい展開は、頂点-ハイパーエッジ対を「ラインノード」として扱うことにより、ハイパーグラフから均質構造を誘導する。
ハイパーグラフを単純なグラフに縮小することによって、提案された \emph{line expansion} は既存のグラフ学習アルゴリズムを高階構造と互換性を持たせ、様々なハイパーグラフ展開の統一フレームワークとして証明されている。
提案手法は,5つのハイパーグラフデータセットのライン拡張を評価した結果,somaベースラインを有意なマージンで上回った。
関連論文リスト
- Hyperedge Modeling in Hypergraph Neural Networks by using Densest Overlapping Subgraphs [0.0]
グラフクラスタリングにおける最も重要な問題の1つは、最も重なり合う部分グラフ(DOS)を見つけることである。
本稿では,最も重なり合う部分グラフを生成するプロセスを改善するための新しいアプローチとして,アグロメラティシオン (DOSAGE) アルゴリズムを用いたDOS問題の解を提案する。
標準ベンチマークの実験では、DOSAGEアルゴリズムはノード分類タスクにおいて、HGNNや他の6つのメソッドよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-09-16T14:56:10Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Hypergraph Structure Inference From Data Under Smoothness Prior [46.568839316694515]
本稿では,ラベル付きデータを監視対象とせずに,潜在的なハイパーエッジの確率を推定する手法を提案する。
本稿では,この手法を用いてハイパーグラフ構造とノード特徴の関係を確率論的モデリングにより導出する。
本手法は,既存のハイパーグラフ構造推定法よりも効率的にデータから有意義なハイパーグラフ構造を学習できることを示す。
論文 参考訳(メタデータ) (2023-08-27T18:28:58Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Augmentations in Hypergraph Contrastive Learning: Fabricated and
Generative [126.0985540285981]
我々は、ハイパーグラフニューラルネットワークの一般化性を改善するために、画像/グラフからの対照的な学習アプローチ(ハイパーGCLと呼ぶ)を適用する。
我々は、高次関係を符号化したハイパーエッジを増大させる2つのスキームを作成し、グラフ構造化データから3つの拡張戦略を採用する。
拡張ビューを生成するためのハイパーグラフ生成モデルを提案し、次に、ハイパーグラフ拡張とモデルパラメータを協調的に学習するエンド・ツー・エンドの微分可能なパイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-07T20:12:20Z) - Deep Hypergraph Structure Learning [34.972686247703024]
高次相関の学習は、近年、ハイパーグラフが広く使われているデータ表現学習において、優位性を示している。
データ間のハイパーグラフ構造の生成方法はまだ難しい課題です。
DeepHGSLはハイパーグラフに基づく表現学習のためのハイパーグラフ構造を最適化するために設計されている。
論文 参考訳(メタデータ) (2022-08-26T10:00:11Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - HyperSF: Spectral Hypergraph Coarsening via Flow-based Local Clustering [9.438207505148947]
本稿では,ハイパーグラフのスペクトル(構造)特性を保存するために,効率的なスペクトルハイパーグラフ粗大化手法を提案する。
提案手法は,ハイパーグラフクラスタリングのマルチウェイコンダクタンスを大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-08-17T22:20:23Z) - Learning over Families of Sets -- Hypergraph Representation Learning for
Higher Order Tasks [12.28143554382742]
可変サイズのハイパーエッジの表現を実証的に表現するためのハイパーグラフニューラルネットワークを開発した。
複数の実世界のハイパーグラフデータセットのパフォーマンスを評価し、最新モデルよりも一貫性のある大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-01-19T18:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。