論文の概要: Molecule Property Prediction and Classification with Graph Hypernetworks
- arxiv url: http://arxiv.org/abs/2002.00240v1
- Date: Sat, 1 Feb 2020 16:44:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 00:36:19.171436
- Title: Molecule Property Prediction and Classification with Graph Hypernetworks
- Title(参考訳): グラフハイパーネットワークによる分子特性の予測と分類
- Authors: Eliya Nachmani, Lior Wolf
- Abstract要約: ネットワークをハイパーネットワークに置き換えることで性能が向上することを示す。
ハイパーネットワークの適用において大きな困難は、安定性の欠如である。
最近の研究は、エラー訂正コードのコンテキストにおいて、ハイパーネットワークのトレーニング不安定性に取り組んでいる。
- 参考スコア(独自算出の注目度): 113.38181979662288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks are currently leading the performance charts in
learning-based molecule property prediction and classification. Computational
chemistry has, therefore, become the a prominent testbed for generic graph
neural networks, as well as for specialized message passing methods. In this
work, we demonstrate that the replacement of the underlying networks with
hypernetworks leads to a boost in performance, obtaining state of the art
results in various benchmarks. A major difficulty in the application of
hypernetworks is their lack of stability. We tackle this by combining the
current message and the first message. A recent work has tackled the training
instability of hypernetworks in the context of error correcting codes, by
replacing the activation function of the message passing network with a
low-order Taylor approximation of it. We demonstrate that our generic solution
can replace this domain-specific solution.
- Abstract(参考訳): グラフニューラルネットワークは現在、学習に基づく分子特性の予測と分類でパフォーマンスチャートをリードしている。
したがって計算化学は、汎用グラフニューラルネットワークや特殊なメッセージパッシング法において、顕著なテストベッドとなっている。
本稿では,基盤となるネットワークをハイパーネットワークに置き換えることで,パフォーマンスが向上し,様々なベンチマークで最先端の成果が得られることを実証する。
ハイパーネットワークの適用において大きな困難は、安定性の欠如である。
我々は、現在のメッセージと最初のメッセージを組み合わせることでこれに取り組む。
最近の研究は、メッセージパッシングネットワークのアクティベーション機能を低次のTaylor近似に置き換えることで、エラー訂正符号の文脈におけるハイパーネットワークのトレーニング不安定に対処している。
当社のジェネリックソリューションがこのドメイン固有のソリューションを置き換えられることを実証します。
関連論文リスト
- Online Learning Of Expanding Graphs [14.952056744888916]
本稿では,信号ストリームからグラフを拡張するためのオンラインネットワーク推論の問題に対処する。
ネットワークに加入したばかりのノードや,それまでのノードに対して,さまざまなタイプの更新を可能にする戦略を導入する。
論文 参考訳(メタデータ) (2024-09-13T09:20:42Z) - Formal Verification of Graph Convolutional Networks with Uncertain Node Features and Uncertain Graph Structure [7.133681867718039]
グラフニューラルネットワークは、機械学習の分野でますます人気が高まっている。
これらは、摂動が本質的に起こる安全クリティカルな環境に適用されている。
本研究は、基礎となる計算におけるすべての要素の依存関係を保存することによって、非通過ギャップに対処する。
論文 参考訳(メタデータ) (2024-04-23T14:12:48Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Centered Self-Attention Layers [89.21791761168032]
変圧器の自己保持機構とグラフニューラルネットワークのメッセージ通過機構を繰り返し適用する。
我々は、このアプリケーションが必然的に、より深い層での同様の表現に過剰なスムーシングをもたらすことを示す。
これらの機構の集約演算子に補正項を提示する。
論文 参考訳(メタデータ) (2023-06-02T15:19:08Z) - Magnitude Invariant Parametrizations Improve Hypernetwork Learning [0.0]
Hypernetworksは、別のニューラルネットワークのパラメータを予測する強力なニューラルネットワークである。
トレーニングは通常、非ハイパーネットワークモデルよりもはるかにゆっくりと収束する。
我々は、ハイパーネットワークのトレーニングの課題に寄与する、基本的な未確認の問題を識別する。
我々は、MIP(Magnitude Invariant Parametrizations)と呼ばれる改訂されたハイパーネットワークの定式化を用いて、この問題に対する簡単な解決策を提案する。
論文 参考訳(メタデータ) (2023-04-15T22:18:29Z) - Improvements to Gradient Descent Methods for Quantum Tensor Network
Machine Learning [0.0]
任意のテンソルネットワークの初期化に成功したコピーノード方式を提案する。
本稿では、量子インスパイアされたテンソルネットワークモデルを生成する手法の組み合わせを示す数値的な結果を示す。
論文 参考訳(メタデータ) (2022-03-03T19:00:40Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。