論文の概要: How Much and When Do We Need Higher-order Information in Hypergraphs? A
Case Study on Hyperedge Prediction
- arxiv url: http://arxiv.org/abs/2001.11181v3
- Date: Wed, 13 May 2020 13:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 12:38:22.154110
- Title: How Much and When Do We Need Higher-order Information in Hypergraphs? A
Case Study on Hyperedge Prediction
- Title(参考訳): ハイパーグラフに高次情報が必要なのはいつ頃か?
ハイパーエッジ予測に関する事例研究
- Authors: Se-eun Yoon, Hyungseok Song, Kijung Shin, and Yung Yi
- Abstract要約: 最大n方向の相互作用に関する情報を蓄積するn-射影グラフの概念を用いて,グループ間相互作用を漸進的に表現する手法を提案する。
下流タスクとして、グラフモデルを評価するための標準的なタスクであるリンク予測の拡張であるハイパーエッジ予測を考える。
- 参考スコア(独自算出の注目度): 15.912619060150861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hypergraphs provide a natural way of representing group relations, whose
complexity motivates an extensive array of prior work to adopt some form of
abstraction and simplification of higher-order interactions. However, the
following question has yet to be addressed: How much abstraction of group
interactions is sufficient in solving a hypergraph task, and how different such
results become across datasets? This question, if properly answered, provides a
useful engineering guideline on how to trade off between complexity and
accuracy of solving a downstream task. To this end, we propose a method of
incrementally representing group interactions using a notion of n-projected
graph whose accumulation contains information on up to n-way interactions, and
quantify the accuracy of solving a task as n grows for various datasets. As a
downstream task, we consider hyperedge prediction, an extension of link
prediction, which is a canonical task for evaluating graph models. Through
experiments on 15 real-world datasets, we draw the following messages: (a)
Diminishing returns: small n is enough to achieve accuracy comparable with
near-perfect approximations, (b) Troubleshooter: as the task becomes more
challenging, larger n brings more benefit, and (c) Irreducibility: datasets
whose pairwise interactions do not tell much about higher-order interactions
lose much accuracy when reduced to pairwise abstractions.
- Abstract(参考訳): ハイパーグラフは、群関係を表現する自然な方法を提供し、その複雑さは、ある種の抽象と高次相互作用の単純化を取り入れるために、様々な先行研究を動機付ける。
グループインタラクションの抽象化がハイパーグラフタスクの解決にどの程度必要か、データセット間で結果がどの程度異なるか、といった問題はまだ解決されていない。
この質問は、適切に答えれば、ダウンストリームタスクを解決する複雑さと正確さのトレードオフ方法に関する有用なエンジニアリングガイドラインを提供する。
そこで本研究では,n-way間相互作用に関する情報を蓄積するn-projected graphの概念を用いて,グループ間相互作用を漸進的に表現する手法を提案する。
下流タスクとして、グラフモデルを評価するための標準的なタスクであるリンク予測の拡張であるハイパーエッジ予測を考える。
15の現実世界のデータセットの実験を通して、以下のメッセージを描きます。
(a)最小の n は近似に匹敵する精度を達成するのに十分である。
b)トラブルシューター: タスクがより困難になるにつれて、大きなnはより多くの利益をもたらす。
(c) 可視性: 対の相互作用が高次相互作用についてあまり語らないデータセットは、対の抽象化に還元されると、多くの精度を失う。
関連論文リスト
- SPHINX: Structural Prediction using Hypergraph Inference Network [19.853413818941608]
本稿では,非教師付き手法で遅延ハイパーグラフ構造を推論するモデルであるハイパーグラフ推論ネットワーク(SPHINX)を用いた構造予測を提案する。
k-サブセットサンプリングの最近の進歩は、離散ハイパーグラフ構造を生成するのに適したツールであることを示す。
結果として得られるモデルは、現代のハイパーグラフニューラルネットワークに必要な高次構造を生成することができる。
論文 参考訳(メタデータ) (2024-10-04T07:49:57Z) - Deep Representation Learning for Forecasting Recursive and Multi-Relational Events in Temporal Networks [12.142292322071299]
この研究は、マルチリレーショナルで再帰的な高次相互作用イベントを予測する問題に対処する。
提案したモデルであるtextitRelational Recursive Hyperedge Temporal Point Process (RRHyperTPP) は,歴史的相互作用パターンに基づいて動的ノード表現を学習するエンコーダを使用する。
本研究では,モデルパラメータを学習するためのノイズコントラスト推定法を開発し,従来のインタラクション予測手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-27T15:46:54Z) - Harnessing the Power of Large Language Model for Uncertainty Aware Graph Processing [24.685942503019948]
本稿では,大言語モデル(LLM)のパワーを生かした新しい手法を提案する。
筆者らは,2つのグラフ処理タスク,すなわち知識グラフ補完とグラフ分類について実験を行った。
LLM が生成した回答の正確性を予測するため,10 つのデータセットのうち 7 つに対して 0.8 以上の AUC を達成した。
論文 参考訳(メタデータ) (2024-03-31T07:38:39Z) - Boosting Multitask Learning on Graphs through Higher-Order Task Affinities [17.70434437597516]
与えられたグラフ上のノードラベルの予測は、コミュニティ検出や分子グラフ予測など、多くのアプリケーションにおいて広く研究されている問題である。
本稿では,グラフ上の複数のノードラベリング関数を同時に予測し,マルチタスク学習の観点からこの問題を再考する。
我々は高次タスク親和性尺度に基づいて,タスクをグループにクラスタリングするアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-06-24T15:53:38Z) - Personalized Decentralized Multi-Task Learning Over Dynamic
Communication Graphs [59.96266198512243]
本稿では,正と負の相関関係を持つタスクに対する分散・フェデレーション学習アルゴリズムを提案する。
本アルゴリズムでは,タスク間の相関関係を自動的に計算し,コミュニケーショングラフを動的に調整して相互に有益なタスクを接続し,互いに悪影響を及ぼす可能性のあるタスクを分離する。
合成ガウスデータセットと大規模セレブ属性(CelebA)データセットについて実験を行った。
論文 参考訳(メタデータ) (2022-12-21T18:58:24Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Arch-Graph: Acyclic Architecture Relation Predictor for
Task-Transferable Neural Architecture Search [96.31315520244605]
Arch-Graphはタスク固有の最適アーキテクチャを予測するトランスファー可能なNASメソッドである。
Arch-Graphの転送性と,多数のタスクにわたる高いサンプル効率を示す。
わずか50モデルの予算の下で、2つの検索スペースで平均して0.16%と0.29%のアーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2022-04-12T16:46:06Z) - Deconfounded Training for Graph Neural Networks [98.06386851685645]
本稿では, コンバウンディング効果を緩和し, 臨界情報に対するラッチを緩和する新しいDecon Training(DTP)のパラダイムを提案する。
具体的には、注意モジュールを用いて臨界部分グラフと自明部分グラフをアンタングル化する。
これにより、GNNは、ラベルとの関係が複数のディストリビューションで堅牢である、より信頼性の高いサブグラフをキャプチャできる。
論文 参考訳(メタデータ) (2021-12-30T15:22:35Z) - When is Memorization of Irrelevant Training Data Necessary for
High-Accuracy Learning? [53.523017945443115]
我々は,十分な精度のトレーニングアルゴリズムが,予測モデルにおいて,そのトレーニング例の大規模サブセットに関する情報を本質的にすべてエンコードしなければならない自然予測問題を記述する。
私たちの結果は、トレーニングアルゴリズムや学習に使用されるモデルのクラスに依存しません。
論文 参考訳(メタデータ) (2020-12-11T15:25:14Z) - Complex Query Answering with Neural Link Predictors [13.872400132315988]
不完全な知識グラフ上で複雑なクエリを効率的に応答するフレームワークを提案する。
我々は、各クエリをエンドツーエンドの微分可能な目的に翻訳し、各原子の真理値が事前学習されたニューラルネットワーク予測器によって計算される。
実験では,提案手法は最先端手法よりも精度の高い結果が得られる。
論文 参考訳(メタデータ) (2020-11-06T16:20:49Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。