論文の概要: Input Specific Neural Networks
- arxiv url: http://arxiv.org/abs/2503.00268v1
- Date: Sat, 01 Mar 2025 00:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:27:07.539973
- Title: Input Specific Neural Networks
- Title(参考訳): 入力型ニューラルネットワーク
- Authors: Asghar A. Jadoon, D. Thomas Seidl, Reese E. Jones, Jan N. Fuhg,
- Abstract要約: ニューラルネットワークのブラックボックスは、入力と出力の間の特定の関係をエンコードまたは強制する能力を制限する。
本稿では、入力に関する第1次微分方程式とともに、2つのISNNについて述べる。
本稿では、ISNNを用いて、バイナリゲーティング機構を用いて入力出力間の構造的関係を学習する方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The black-box nature of neural networks limits the ability to encode or impose specific structural relationships between inputs and outputs. While various studies have introduced architectures that ensure the network's output adheres to a particular form in relation to certain inputs, the majority of these approaches impose constraints on only a single set of inputs. This paper introduces a novel neural network architecture, termed the Input Specific Neural Network (ISNN), which extends this concept by allowing scalar-valued outputs to be subject to multiple constraints. Specifically, the ISNN can enforce convexity in some inputs, non-decreasing monotonicity combined with convexity with respect to others, and simple non-decreasing monotonicity or arbitrary relationships with additional inputs. The paper presents two distinct ISNN architectures, along with equations for the first and second derivatives of the output with respect to the inputs. These networks are broadly applicable. In this work, we restrict their usage to solving problems in computational mechanics. In particular, we show how they can be effectively applied to fitting data-driven constitutive models. We then embed our trained data-driven constitutive laws into a finite element solver where significant time savings can be achieved by using explicit manual differentiation using the derived equations as opposed to automatic differentiation. We also show how ISNNs can be used to learn structural relationships between inputs and outputs via a binary gating mechanism. Particularly, ISNNs are employed to model an anisotropic free energy potential to get the homogenized macroscopic response in a decoupled multiscale setting, where the network learns whether or not the potential should be modeled as polyconvex, and retains only the relevant layers while using the minimum number of inputs.
- Abstract(参考訳): ニューラルネットワークのブラックボックスの性質は、入力と出力の間の特定の構造的関係を符号化または強制する能力を制限する。
様々な研究が、特定の入力に対してネットワークの出力が特定の形式に従属することを保証するアーキテクチャを導入しているが、これらのアプローチの大半は単一の入力のみに制約を課している。
本稿では,スカラー値の出力を複数の制約対象にすることで,この概念を拡張した新しいニューラルネットワークアーキテクチャであるISNNを紹介する。
具体的には、ISNNはいくつかの入力における凸性、他の入力に対する凸性と組み合わされた非減少単調性、および追加入力による単純な非減少単調性または任意の関係を強制することができる。
本稿では、入力に関する出力の第1および第2微分方程式とともに、2つのISNNアーキテクチャを提案する。
これらのネットワークは広く適用できる。
本研究では,計算力学における問題の解法に限定する。
特に、データ駆動構成モデルに効果的に適用する方法を示す。
次に、学習したデータ駆動構成法則を有限要素ソルバに組み込み、自動微分とは対照的に、導出した方程式を用いて明示的な手動微分を用いることで、大幅な時間節約を実現する。
また、ISNNを用いて入力と出力の間の構造的関係をバイナリゲーティング機構を用いて学習する方法を示す。
特に、ISNNは異方性自由エネルギーポテンシャルをモデル化して、疎結合なマルチスケール環境での均質化マクロ応答を得られるようにし、そこでは、ポテンシャルがポリ凸としてモデル化されるべきかどうかをネットワークが学習し、入力の最小数を使用しながら、関連する層のみを保持する。
関連論文リスト
- GINN-KAN: Interpretability pipelining with applications in Physics Informed Neural Networks [5.2969467015867915]
本稿では,解釈可能性パイプラインの概念を導入し,複数の解釈可能性技術を導入し,各手法の精度を向上する。
我々は、標準的なニューラルネットワークアーキテクチャに解釈可能性を導入する可能性のために選択された2つの最近のモデルを評価する。
両モデルの利点を合成する新しい解釈可能なニューラルネットワークGINN-KANを提案する。
論文 参考訳(メタデータ) (2024-08-27T04:57:53Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Modeling Structure with Undirected Neural Networks [20.506232306308977]
任意の順序で実行できる計算を指定するためのフレキシブルなフレームワークである、非指向型ニューラルネットワークを提案する。
さまざまなタスクにおいて、非構造的かつ構造化された非指向型ニューラルアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-08T10:06:51Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - PAC-learning gains of Turing machines over circuits and neural networks [1.4502611532302039]
私達は最低記述の長さの原則を持って来ることができるサンプル効率の潜在的な利益を研究します。
我々はチューリングマシンを用いて普遍的なモデルと回路を表現する。
回路の複雑さと密接性における古典的オープン問題との密接な関係を浮き彫りにする。
論文 参考訳(メタデータ) (2021-03-23T17:03:10Z) - Multi-Constitutive Neural Network for Large Deformation Poromechanics Problem [21.894584868482916]
本稿では,複数の異なる法則を1つのモデルで解ける「マルチ構成型ニューラルネットワーク(MCNN)」を提案する。
MCNNは複数のPDEの解法を訓練し、PDEで訓練した個々のニューラルネットワークの解法よりも優れていた。
論文 参考訳(メタデータ) (2020-10-11T07:36:16Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Physics informed deep learning for computational elastodynamics without
labeled data [13.084113582897965]
ラベル付きデータに頼らずにエラストダイナミックス問題をモデル化するために,混合可変出力を持つ物理インフォームドニューラルネットワーク(PINN)を提案する。
その結果,計算力学応用の文脈におけるPINNの有望性を示す。
論文 参考訳(メタデータ) (2020-06-10T19:05:08Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。