論文の概要: GraphMDN: Leveraging graph structure and deep learning to solve inverse
problems
- arxiv url: http://arxiv.org/abs/2010.13668v1
- Date: Mon, 26 Oct 2020 15:44:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:04:34.636960
- Title: GraphMDN: Leveraging graph structure and deep learning to solve inverse
problems
- Title(参考訳): GraphMDN:逆問題解決のためのグラフ構造とディープラーニングの活用
- Authors: Tuomas P. Oikarinen (1), Daniel C. Hannah (2), Sohrob Kazerounian (2)
((1) Massachusetts Institute of Technology, (2) Vectra AI)
- Abstract要約: グラフニューラルネットワークと混合密度ネットワーク(MDN)の出力を組み合わせたグラフ混合密度ネットワーク(Graph Mixture Density Network, GraphMDN)を開発した。
GraphMDNは、データがグラフ構造されている回帰タスクに優れ、ターゲット統計は密度の混合によってより良く表現される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent introduction of Graph Neural Networks (GNNs) and their growing
popularity in the past few years has enabled the application of deep learning
algorithms to non-Euclidean, graph-structured data. GNNs have achieved
state-of-the-art results across an impressive array of graph-based machine
learning problems. Nevertheless, despite their rapid pace of development, much
of the work on GNNs has focused on graph classification and embedding
techniques, largely ignoring regression tasks over graph data. In this paper,
we develop a Graph Mixture Density Network (GraphMDN), which combines graph
neural networks with mixture density network (MDN) outputs. By combining these
techniques, GraphMDNs have the advantage of naturally being able to incorporate
graph structured information into a neural architecture, as well as the ability
to model multi-modal regression targets. As such, GraphMDNs are designed to
excel on regression tasks wherein the data are graph structured, and target
statistics are better represented by mixtures of densities rather than singular
values (so-called ``inverse problems"). To demonstrate this, we extend an
existing GNN architecture known as Semantic GCN (SemGCN) to a GraphMDN
structure, and show results from the Human3.6M pose estimation task. The
extended model consistently outperforms both GCN and MDN architectures on their
own, with a comparable number of parameters.
- Abstract(参考訳): 最近のグラフニューラルネットワーク(GNN)の導入と、ここ数年で人気の高まりにより、非ユークリッドグラフ構造化データへのディープラーニングアルゴリズムの適用が可能になった。
GNNは、グラフベースの機械学習問題によって、最先端の結果を達成した。
それでも、急速な開発ペースにもかかわらず、GNNの研究の多くはグラフ分類と埋め込み技術に焦点を当てており、グラフデータよりも回帰タスクを無視している。
本稿では,グラフニューラルネットワークと混合密度ネットワーク(MDN)の出力を組み合わせたグラフ混合密度ネットワーク(Graph Mixture Density Network, GraphMDN)を提案する。
これらのテクニックを組み合わせることで、GraphMDNは自然にグラフ構造化情報をニューラルネットワークに組み込むことができ、マルチモーダル回帰ターゲットをモデル化できるという利点がある。
このように、graphmdnsは、データがグラフ構造であり、ターゲット統計は特異値よりも密度の混合によって表現される(いわゆる「逆問題」)回帰タスクに優れるように設計されている。
これを示すために、Semantic GCN(Semantic GCN)と呼ばれる既存のGNNアーキテクチャをGraphMDN構造に拡張し、Human3.6Mのポーズ推定タスクの結果を示す。
拡張モデルは、GCNとMDNの両方のアーキテクチャを、同等の数のパラメータで一貫して上回っている。
関連論文リスト
- Ensemble Learning for Graph Neural Networks [28.3650473174488]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための様々な分野で成功している。
本稿では,GNNの性能とロバスト性向上のためのアンサンブル学習手法の適用について検討する。
論文 参考訳(メタデータ) (2023-10-22T03:55:13Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Learning to Evolve on Dynamic Graphs [5.1521870302904125]
Learning to Evolve on Dynamic Graphs (LEDG)は、グラフ情報と時間情報を共同で学習する新しいアルゴリズムである。
LEDGはモデルに依存しないため、動的グラフ上でメッセージパッシングベースのグラフニューラルネットワーク(GNN)をトレーニングすることができる。
論文 参考訳(メタデータ) (2021-11-13T04:09:30Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - GraphTheta: A Distributed Graph Neural Network Learning System With
Flexible Training Strategy [5.466414428765544]
新しい分散グラフ学習システムGraphThetaを紹介します。
複数のトレーニング戦略をサポートし、大規模グラフ上で効率的でスケーラブルな学習を可能にします。
この仕事は、文学における10億規模のネットワーク上で実施された最大のエッジアトリビュートGNN学習タスクを表します。
論文 参考訳(メタデータ) (2021-04-21T14:51:33Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Incomplete Graph Representation and Learning via Partial Graph Neural
Networks [7.227805463462352]
多くのアプリケーションでは、グラフノードの属性が部分的に未知/欠落している不完全な形式でグラフがやってくる可能性がある。
既存のGNNは、属性不完全なグラフデータを直接処理できない完全なグラフに基づいて設計されている。
本研究では,属性不完全グラフ表現と学習のための部分グラフニューラルネットワーク(PaGNN)を新たに開発した。
論文 参考訳(メタデータ) (2020-03-23T08:29:59Z) - Gated Graph Recurrent Neural Networks [176.3960927323358]
グラフ処理の一般的な学習フレームワークとしてグラフリカレントニューラルネットワーク(GRNN)を導入する。
勾配の消失問題に対処するため,時間,ノード,エッジゲートの3つの異なるゲーティング機構でGRNNを前進させた。
数値的な結果は、GRNNがGNNやRNNよりも優れており、グラフプロセスの時間構造とグラフ構造の両方を考慮することが重要であることを示している。
論文 参考訳(メタデータ) (2020-02-03T22:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。