論文の概要: Sparse and Local Networks for Hypergraph Reasoning
- arxiv url: http://arxiv.org/abs/2303.05496v1
- Date: Thu, 9 Mar 2023 18:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 13:38:52.435290
- Title: Sparse and Local Networks for Hypergraph Reasoning
- Title(参考訳): ハイパーグラフ推論のためのスパースとローカルネットワーク
- Authors: Guangxuan Xiao, Leslie Pack Kaelbling, Jiajun Wu, Jiayuan Mao
- Abstract要約: 我々は,スパースと局所ハイパーグラフニューラルネットワーク(SpaLoc)を用いて,大規模な実世界の領域におけるこのような問題の解法を学ぶためのアプローチを提案する。
SpaLocは、従来の論理に基づく推論からの2つの観察によって動機付けられている: 関係推論は通常、局所的に適用され、関係は通常、疎い。
これらの特性を利用して,(1)ハイパーグラフニューラルネットワークのスパーステンソル表現を用いて学習と推論を効率化し,(2)スパース表現を奨励するためにトレーニング中にスパース化損失を適用し,(3)トレーニング中の新しい情報飽和度に基づくサンプリングプロセスに基づいてサブサンプリングを行う。
- 参考スコア(独自算出の注目度): 42.33304366692063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning about the relationships between entities from input facts (e.g.,
whether Ari is a grandparent of Charlie) generally requires explicit
consideration of other entities that are not mentioned in the query (e.g., the
parents of Charlie). In this paper, we present an approach for learning to
solve problems of this kind in large, real-world domains, using sparse and
local hypergraph neural networks (SpaLoc). SpaLoc is motivated by two
observations from traditional logic-based reasoning: relational inferences
usually apply locally (i.e., involve only a small number of individuals), and
relations are usually sparse (i.e., only hold for a small percentage of tuples
in a domain). We exploit these properties to make learning and inference
efficient in very large domains by (1) using a sparse tensor representation for
hypergraph neural networks, (2) applying a sparsification loss during training
to encourage sparse representations, and (3) subsampling based on a novel
information sufficiency-based sampling process during training. SpaLoc achieves
state-of-the-art performance on several real-world, large-scale knowledge graph
reasoning benchmarks, and is the first framework for applying hypergraph neural
networks on real-world knowledge graphs with more than 10k nodes.
- Abstract(参考訳): 入力事実(例えばariがcharlieの祖父母であるかどうか)からエンティティ間の関係を推論するには、一般的にクエリで言及されていない他のエンティティ(例えばcharlieの親)の明示的な考慮が必要である。
本稿では,sparse and local hypergraph neural networks (spaloc) を用いて,実世界の大規模領域でこの問題を解くための学習手法を提案する。
spalocは、伝統的な論理に基づく推論からの2つの観察によって動機づけられている: 関係推論は通常、局所的に適用される(つまり、少数の個人のみを含む)。
これらの特性を利用して,(1)ハイパーグラフニューラルネットワークのスパーステンソル表現を用いて学習と推論を効率化し,(2)スパース表現を奨励するためにトレーニング中にスパース化損失を適用し,(3)トレーニング中の新しい情報飽和度に基づくサンプリングプロセスに基づいてサブサンプリングを行う。
SpaLocは、いくつかの実世界の大規模知識グラフ推論ベンチマークで最先端のパフォーマンスを実現し、10kノード以上の実世界の知識グラフにハイパーグラフニューラルネットワークを適用するための最初のフレームワークである。
関連論文リスト
- GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Subgraph Frequency Distribution Estimation using Graph Neural Networks [17.02487540304784]
本稿では,グラフニューラルネットワークを用いた新しい表現学習フレームワークであるGNNSを提案する。
我々のフレームワークは、ノード、サブグラフ、グラフの階層的な埋め込みを学習する推論モデルと生成モデルを含む。
学習したモデルと埋め込みを用いて、サブグラフを高度にスケーラブルで並列な方法でサンプリングし、これらのサンプリングされたサブグラフに基づいて周波数分布推定を行う。
論文 参考訳(メタデータ) (2022-07-14T06:23:38Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Learning Graph Neural Networks with Positive and Unlabeled Nodes [34.903471348798725]
グラフニューラルネットワーク(GNN)は、グラフのノード分類など、トランスダクティブな学習タスクのための重要なツールです。
ほとんどのGNNモデルは、各ラウンドで短い距離から情報を集約し、グラフで長距離関係をキャプチャできません。
本論文では,これらの制限を克服するために,新しいグラフニューラルネットワークフレームワーク,LSDAN(Long-Short distance aggregation Network)を提案する。
論文 参考訳(メタデータ) (2021-03-08T11:43:37Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Graph Prototypical Networks for Few-shot Learning on Attributed Networks [72.31180045017835]
グラフメタ学習フレームワーク - Graph Prototypeal Networks (GPN) を提案する。
GPNは、属性付きネットワーク上でテキストミータ学習を行い、ターゲット分類タスクを扱うための高度に一般化可能なモデルを導出する。
論文 参考訳(メタデータ) (2020-06-23T04:13:23Z) - NeuroFabric: Identifying Ideal Topologies for Training A Priori Sparse
Networks [2.398608007786179]
ディープニューラルネットワークの長いトレーニング時間は、機械学習研究のボトルネックである。
層内トポロジーの選択に関する理論的基礎を提供する。
類似したトポロジが達成可能な精度に大きな差があることがよく示される。
論文 参考訳(メタデータ) (2020-02-19T18:29:18Z) - Graph Neighborhood Attentive Pooling [0.5493410630077189]
ネットワーク表現学習(NRL)は,高次元およびスパースグラフの低次元ベクトル表現を学習するための強力な手法である。
本稿では,ノード近傍の異なる部分への入場を注意型プールネットワークを用いて学習するGAPと呼ばれる新しい文脈依存アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-28T15:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。