論文の概要: Orders-of-coupling representation with a single neural network with
optimal neuron activation functions and without nonlinear parameter
optimization
- arxiv url: http://arxiv.org/abs/2302.12013v1
- Date: Sat, 11 Feb 2023 06:27:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 13:13:20.446525
- Title: Orders-of-coupling representation with a single neural network with
optimal neuron activation functions and without nonlinear parameter
optimization
- Title(参考訳): 最適ニューロン活性化関数を持つ単一ニューラルネットワークと非線形パラメータ最適化のない結合表現
- Authors: Sergei Manzhos and Manabu Ihara
- Abstract要約: 本稿では,ニューラルネットに最適なニューロン活性化機能を持たせることで,協調表現のニューラルネットワークモデルを容易に構築できることを述べる。
例としては、分子ポテンシャルエネルギー表面の表現がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representations of multivariate functions with low-dimensional functions that
depend on subsets of original coordinates (corresponding of different orders of
coupling) are useful in quantum dynamics and other applications, especially
where integration is needed. Such representations can be conveniently built
with machine learning methods, and previously, methods building the
lower-dimensional terms of such representations with neural networks [e.g.
Comput. Phys. Comm. 180 (2009) 2002] and Gaussian process regressions [e.g.
Mach. Learn. Sci. Technol. 3 (2022) 01LT02] were proposed. Here, we show that
neural network models of orders-of-coupling representations can be easily built
by using a recently proposed neural network with optimal neuron activation
functions computed with a first-order additive Gaussian process regression
[arXiv:2301.05567] and avoiding non-linear parameter optimization. Examples are
given of representations of molecular potential energy surfaces.
- Abstract(参考訳): 元の座標の部分集合に依存する低次元関数を持つ多変数函数の表現(カップリングの順序の異なる)は量子力学やその他の応用、特に積分が必要な場合は有用である。
このような表現は機械学習の手法で便利に構築することができ、以前はニューラルネットワーク(例えば、Phys. Comm. 180 (2009) 2002)とガウスのプロセス回帰(例えば、Mach. Learn. Sci. Technol. 3 (2022) 01LT02)を用いて、そのような表現の低次元項を構築する方法が提案されていた。
本稿では,一階加法ガウス過程回帰 [arxiv:2301.05567] で計算した最適なニューロン活性化関数を持つニューラルネットワークを用いて,結合順序表現のニューラルネットワークモデルを構築し,非線形パラメータ最適化を回避できることを示す。
例として分子ポテンシャルエネルギー面の表現がある。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - The limitation of neural nets for approximation and optimization [0.0]
最適化問題における目的関数の近似と最小化のために,ニューラルネットワークを代理モデルとして用いることに関心がある。
本研究は、一般的な非線形最適化テスト問題の目的関数を近似する最適なアクティベーション関数を決定することから始まる。
論文 参考訳(メタデータ) (2023-11-21T00:21:15Z) - Generalizable Neural Fields as Partially Observed Neural Processes [16.202109517569145]
本稿では,ニューラル表現の大規模トレーニングを部分的に観察されたニューラルプロセスフレームワークの一部として考える新しいパラダイムを提案する。
このアプローチは、最先端の勾配に基づくメタラーニングアプローチとハイパーネットワークアプローチの両方より優れていることを実証する。
論文 参考訳(メタデータ) (2023-09-13T01:22:16Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Neural network with optimal neuron activation functions based on
additive Gaussian process regression [0.0]
より柔軟なニューロン活性化機能により、より少ない神経細胞や層を使用でき、表現力を向上させることができる。
加算ガウス過程回帰(GPR)は各ニューロンに特異的な最適なニューロン活性化関数を構築するのに有効であることを示す。
ニューラルネットワークパラメータの非線形フィッティングを回避するアプローチも導入されている。
論文 参考訳(メタデータ) (2023-01-13T14:19:17Z) - Smooth Mathematical Function from Compact Neural Networks [0.0]
NNは、非常に正確で、非常にスムーズな関数を生成します。
新しいアクティベーション関数,メタバッチ法,数値データの特徴,メタパラメータを用いたメタ拡張について述べる。
論文 参考訳(メタデータ) (2022-12-31T11:33:24Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。