論文の概要: Differentiable neural network representation of multi-well, locally-convex potentials
- arxiv url: http://arxiv.org/abs/2506.17242v1
- Date: Fri, 06 Jun 2025 05:37:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-29 09:28:14.817268
- Title: Differentiable neural network representation of multi-well, locally-convex potentials
- Title(参考訳): マルチウェル, 局所凸電位の微分可能なニューラルネットワーク表現
- Authors: Reese E. Jones, Adrian Buganza Tepole, Jan N. Fuhg,
- Abstract要約: log-sum-exponential input convex Neural Network (LSE-ICNN) に基づく微分可能・凸定式化を提案する。
LSE-ICNNは、盆地内の凸性を保ち、勾配に基づく学習と推論を可能にする滑らかなサロゲートを提供する。
メカノケミカル位相変換, ミクロ構造弾性不安定性, 保守的生物学的遺伝子回路, マルチモーダル確率分布の変動推論など, 様々な領域におけるLSE-ICNNの汎用性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-well potentials are ubiquitous in science, modeling phenomena such as phase transitions, dynamic instabilities, and multimodal behavior across physics, chemistry, and biology. In contrast to non-smooth minimum-of-mixture representations, we propose a differentiable and convex formulation based on a log-sum-exponential (LSE) mixture of input convex neural network (ICNN) modes. This log-sum-exponential input convex neural network (LSE-ICNN) provides a smooth surrogate that retains convexity within basins and allows for gradient-based learning and inference. A key feature of the LSE-ICNN is its ability to automatically discover both the number of modes and the scale of transitions through sparse regression, enabling adaptive and parsimonious modeling. We demonstrate the versatility of the LSE-ICNN across diverse domains, including mechanochemical phase transformations, microstructural elastic instabilities, conservative biological gene circuits, and variational inference for multimodal probability distributions. These examples highlight the effectiveness of the LSE-ICNN in capturing complex multimodal landscapes while preserving differentiability, making it broadly applicable in data-driven modeling, optimization, and physical simulation.
- Abstract(参考訳): マルチウェルポテンシャルは科学においてユビキタスであり、相転移、動的不安定性、物理、化学、生物学の多モード挙動などのモデリング現象である。
非滑らかな最小混合表現とは対照的に、入力凸ニューラルネット(ICNN)モードの対数-sum-exponential(LSE)混合に基づく微分可能かつ凸の定式化を提案する。
この対数的な指数入力凸ニューラルネットワーク(LSE-ICNN)は、盆地内の凸性を保持し、勾配に基づく学習と推論を可能にする滑らかなサロゲートを提供する。
LSE-ICNNの重要な特徴は、疎回帰によってモードの数と遷移の規模の両方を自動的に検出し、適応的および同相モデリングを可能にすることである。
メカノケミカル位相変換, ミクロ構造弾性不安定性, 保守的生物学的遺伝子回路, マルチモーダル確率分布の変動推論など, 様々な領域におけるLSE-ICNNの汎用性を示す。
これらの例は、LSE-ICNNが複雑なマルチモーダルランドスケープをキャプチャし、微分可能性を維持し、データ駆動モデリング、最適化、物理シミュレーションに広く適用できることを示す。
関連論文リスト
- Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Equivariant Neural Simulators for Stochastic Spatiotemporal Dynamics [3.909855210960908]
Equi Probabilistic Neural Simulation (EPNS)は、同変分布の自己回帰モデリングのためのフレームワークである。
EPNSは、確率的シミュレーションのための既存のニューラルネットワークベースの手法をかなり上回っている。
論文 参考訳(メタデータ) (2023-05-23T17:30:10Z) - Hybrid quantum physics-informed neural networks for simulating computational fluid dynamics in complex shapes [37.69303106863453]
本稿では3次元Y字ミキサー内の層流をシミュレートするハイブリッド量子物理学インフォームドニューラルネットワークを提案する。
我々のアプローチは、量子モデルの表現力と物理インフォームドニューラルネットワークの柔軟性を組み合わせることで、純粋に古典的なニューラルネットワークに比べて21%高い精度を実現している。
論文 参考訳(メタデータ) (2023-04-21T20:49:29Z) - Regularized Sequential Latent Variable Models with Adversarial Neural
Networks [33.74611654607262]
逐次データの変動をモデル化するために,RNN で高レベル潜時確率変数を使用する方法を提案する。
変動RNNモデルの学習に逆法を用いる可能性を探る。
論文 参考訳(メタデータ) (2021-08-10T08:05:14Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Residual Matrix Product State for Machine Learning [20.158215120846652]
行列生成状態 (MPS) と残存ニューラルネットワーク (NN) のアイデアを組み合わせることで, 残留行列生成状態 (ResMPS) を提案する。
ResMPSは層が"隠された"特徴を出力にマッピングするネットワークとして扱うことができる。
それは効率、安定性および表現力の最先端のTNモデルより優秀です。
論文 参考訳(メタデータ) (2020-12-22T05:44:20Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。