論文の概要: Set2Graph: Learning Graphs From Sets
- arxiv url: http://arxiv.org/abs/2002.08772v3
- Date: Thu, 26 Nov 2020 08:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 06:49:47.915543
- Title: Set2Graph: Learning Graphs From Sets
- Title(参考訳): Set2Graph: 集合からグラフを学ぶ
- Authors: Hadar Serviansky, Nimrod Segol, Jonathan Shlomi, Kyle Cranmer, Eilam
Gross, Haggai Maron, Yaron Lipman
- Abstract要約: 本稿では,Set2Graph関数を学習するためのニューラルネットワークモデルの一群を提唱する。
これは実用的かつ最大表現力(ユニバーサル)であり、コンパクト集合上の任意の連続 Set2Graph 関数を近似することができる。
- 参考スコア(独自算出の注目度): 44.64171265680254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many problems in machine learning can be cast as learning functions from sets
to graphs, or more generally to hypergraphs; in short, Set2Graph functions.
Examples include clustering, learning vertex and edge features on graphs, and
learning features on triplets in a collection. A natural approach for building
Set2Graph models is to characterize all linear equivariant set-to-hypergraph
layers and stack them with non-linear activations. This poses two challenges:
(i) the expressive power of these networks is not well understood; and (ii)
these models would suffer from high, often intractable computational and memory
complexity, as their dimension grows exponentially. This paper advocates a
family of neural network models for learning Set2Graph functions that is both
practical and of maximal expressive power (universal), that is, can approximate
arbitrary continuous Set2Graph functions over compact sets. Testing these
models on different machine learning tasks, mainly an application to particle
physics, we find them favorable to existing baselines.
- Abstract(参考訳): 機械学習における多くの問題は、集合からグラフへの学習関数として、あるいはより一般的にはハイパーグラフにキャストすることができる。
例えば、クラスタリング、グラフ上の頂点とエッジの学習、コレクション内のトリプレットの学習機能などだ。
Set2Graphモデルを構築するための自然なアプローチは、すべての線形同変集合-ハイパーグラフ層を特徴付け、それらを非線形アクティベーションで積み重ねることである。
これは2つの課題をもたらします
(i)これらのネットワークの表現力はよく理解されておらず、
(II)これらのモデルは、次元が指数関数的に大きくなるにつれて、高い、しばしば難解な計算とメモリの複雑さに悩まされる。
本稿では,コンパクトな集合上で任意の連続的な Set2Graph 関数を近似できる,実用的かつ最大表現力(ユニバーサル)の両方を持つ Set2Graph 関数を学習するためのニューラルネットワークモデルの一群を提唱する。
これらのモデルをさまざまな機械学習タスク(主に粒子物理学への応用)でテストすると、既存のベースラインに好適であることが分かる。
関連論文リスト
- GraphLSS: Integrating Lexical, Structural, and Semantic Features for Long Document Extractive Summarization [19.505955857963855]
長い文書抽出要約のための異種グラフ構造であるGraphLSSを提案する。
補助学習モデルを必要としない2種類の情報(単語と文)と4種類のエッジ(文の意味的類似性、文発生順序、文中の単語、単語の意味的類似性)を定義する。
論文 参考訳(メタデータ) (2024-10-25T23:48:59Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - PlanE: Representation Learning over Planar Graphs [9.697671872347131]
この研究はホップクロフトとタージャンの古典的な平面グラフ同型アルゴリズムにインスパイアされている。
PlanEには、実用的な拡張性を維持しながら、平面グラフ上の完全な不変性を学習できるアーキテクチャが含まれている。
論文 参考訳(メタデータ) (2023-07-03T17:45:01Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - There is more to graphs than meets the eye: Learning universal features with self-supervision [2.882036130110936]
本稿では,複数のグラフに一般化可能な自己スーパービジョンによる特徴学習の課題について検討する。
提案手法では,(1)下流ノード分類の性能向上,(2)同じ家系の未確認グラフに再利用可能な学習機能,(3)より効率的なトレーニング,(4)コンパクトで一般化可能なモデルを提案する。
論文 参考訳(メタデータ) (2023-05-31T14:08:48Z) - Curriculum Graph Machine Learning: A Survey [51.89783017927647]
カリキュラムグラフ機械学習(Graph CL)は、グラフ機械学習とカリキュラム学習の強みを統合する。
本稿では,グラフCLのアプローチを概観し,最近の研究動向を概観する。
論文 参考訳(メタデータ) (2023-02-06T16:59:25Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Compositionality-Aware Graph2Seq Learning [2.127049691404299]
グラフにおける合成性は、多くの graph2seq タスクの出力シーケンスにおける合成性に関連付けられる。
マルチレベルアテンションプーリング(MLAP)アーキテクチャを採用し、複数のレベルの情報ロケータからグラフ表現を集約する。
MLAPアーキテクチャを持つモデルは、7倍以上のパラメータで従来の最先端モデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-01-28T15:22:39Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Towards Interpretable Multi-Task Learning Using Bilevel Programming [18.293397644865454]
解釈可能なマルチタスク学習は、学習したモデルの予測性能に基づいて、タスク関係のスパースグラフを学習するものとして表現することができる。
一般化性能を犠牲にすることなく、学習したモデルの解釈性や、合成データと実データとの関係を実証的に改善する方法を示す。
論文 参考訳(メタデータ) (2020-09-11T15:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。