論文の概要: Optimization of Graph Neural Networks with Natural Gradient Descent
- arxiv url: http://arxiv.org/abs/2008.09624v1
- Date: Fri, 21 Aug 2020 18:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:10:08.099128
- Title: Optimization of Graph Neural Networks with Natural Gradient Descent
- Title(参考訳): 自然勾配降下を伴うグラフニューラルネットワークの最適化
- Authors: Mohammad Rasool Izadi, Yihao Fang, Robert Stevenson, Lizhen Lin
- Abstract要約: グラフに基づく半教師付き学習のための最適化アルゴリズムを,最適化プロセスにおける自然な勾配情報を用いて開発する。
我々の知る限りでは、グラフニューラルネットワークの最適化に自然勾配を利用した最初の研究である。
- 参考スコア(独自算出の注目度): 1.3477333339913569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose to employ information-geometric tools to optimize a
graph neural network architecture such as the graph convolutional networks.
More specifically, we develop optimization algorithms for the graph-based
semi-supervised learning by employing the natural gradient information in the
optimization process. This allows us to efficiently exploit the geometry of the
underlying statistical model or parameter space for optimization and inference.
To the best of our knowledge, this is the first work that has utilized the
natural gradient for the optimization of graph neural networks that can be
extended to other semi-supervised problems. Efficient computations algorithms
are developed and extensive numerical studies are conducted to demonstrate the
superior performance of our algorithms over existing algorithms such as ADAM
and SGD.
- Abstract(参考訳): 本研究では,グラフ畳み込みネットワークなどのグラフニューラルネットワークアーキテクチャを最適化するための情報幾何学ツールを提案する。
具体的には、グラフに基づく半教師付き学習のための最適化アルゴリズムを、最適化プロセスにおける自然な勾配情報を用いて開発する。
これにより、基礎となる統計モデルやパラメータ空間の幾何を最適化や推論のために効率的に活用することができる。
我々の知る限りでは、これは他の半教師付き問題に拡張可能なグラフニューラルネットワークの最適化に自然勾配を利用した最初の研究である。
効率的な計算アルゴリズムを開発し,ADAMやSGDといった既存アルゴリズムよりもアルゴリズムの性能が優れていることを示す。
関連論文リスト
- Are Graph Neural Networks Optimal Approximation Algorithms? [26.5364112420121]
最適化問題のクラスに対して最適な近似アルゴリズムをキャプチャするグラフニューラルネットワークアーキテクチャを設計する。
我々は、OptGNNの学習した埋め込みから最適解のバウンダリを生成するアルゴリズムを設計するために、凸緩和を捕捉するOptGNNの能力を利用する。
論文 参考訳(メタデータ) (2023-10-01T00:12:31Z) - Learning the hub graphical Lasso model with the structured sparsity via
an efficient algorithm [1.0923877073891446]
ハブグラフィカルモデルを推定する二相アルゴリズムを提案する。
提案アルゴリズムはまず,乗算器の2つの交互方向法を用いてよい初期点を生成する。
その後、半滑らかなニュートン(SSN)ベースの拡張ラグランジアン法(ALM)を温め、実用的なタスクに十分正確な解を計算する。
論文 参考訳(メタデータ) (2023-08-17T08:24:28Z) - Genetically Modified Wolf Optimization with Stochastic Gradient Descent
for Optimising Deep Neural Networks [0.0]
本研究の目的は、人口ベースメタヒューリスティックアルゴリズムを用いて、ニューラルネットワーク(NN)重み付けを最適化するための代替アプローチを分析することである。
Grey Wolf (GWO) と Genetic Modified Algorithms (GA) のハイブリッドをグラディエント・Descent (SGD) と組み合わせて検討した。
このアルゴリズムは、高次元性の問題にも対処しながら、エクスプロイトと探索の組み合わせを可能にする。
論文 参考訳(メタデータ) (2023-01-21T13:22:09Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Alternately Optimized Graph Neural Networks [33.98939289745346]
グラフ上の半教師付き学習のための新しい最適化フレームワークを提案する。
提案手法は交互最適化アルゴリズムにより便利に解けるので,効率は大幅に向上する。
論文 参考訳(メタデータ) (2022-06-08T01:50:08Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。