論文の概要: SciANN: A Keras/Tensorflow wrapper for scientific computations and
physics-informed deep learning using artificial neural networks
- arxiv url: http://arxiv.org/abs/2005.08803v2
- Date: Wed, 16 Sep 2020 03:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 21:03:33.283217
- Title: SciANN: A Keras/Tensorflow wrapper for scientific computations and
physics-informed deep learning using artificial neural networks
- Title(参考訳): SciANN: ニューラルネットワークを用いた科学計算と物理インフォームドディープラーニングのためのKeras/Tensorflowラッパー
- Authors: Ehsan Haghighat and Ruben Juanes
- Abstract要約: SciANNは科学計算と物理インフォームドディープラーニングのためのPythonパッケージである。
科学計算や解法、偏微分方程式の発見のためのニューラルネットワーク構築を抽象化するように設計されている。
一連の例で、このフレームワークは、離散データに対する曲線フィッティングや、強弱形式のPDEの解法と発見にどのように使用できるかを説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce SciANN, a Python package for scientific computing
and physics-informed deep learning using artificial neural networks. SciANN
uses the widely used deep-learning packages Tensorflow and Keras to build deep
neural networks and optimization models, thus inheriting many of Keras's
functionalities, such as batch optimization and model reuse for transfer
learning. SciANN is designed to abstract neural network construction for
scientific computations and solution and discovery of partial differential
equations (PDE) using the physics-informed neural networks (PINN) architecture,
therefore providing the flexibility to set up complex functional forms. We
illustrate, in a series of examples, how the framework can be used for curve
fitting on discrete data, and for solution and discovery of PDEs in strong and
weak forms. We summarize the features currently available in SciANN, and also
outline ongoing and future developments.
- Abstract(参考訳): 本稿では,ニューラルネットワークを用いた科学計算および物理インフォームドディープラーニングのためのPythonパッケージであるSciANNを紹介する。
sciannでは、tensorflowとkerasが広く使用されているディープラーニングパッケージを使用して、ディープニューラルネットワークと最適化モデルを構築し、バッチ最適化や転送学習のためのモデル再利用など、kerasの機能の多くを継承している。
SciANNは、物理インフォームドニューラルネットワーク(PINN)アーキテクチャを用いて、科学計算のためのニューラルネットワーク構築を抽象化し、偏微分方程式(PDE)の解と発見を行うように設計されている。
一連の例で、このフレームワークは、離散データに対する曲線フィッティングや、強弱形式のPDEの解法と発見にどのように使用できるかを説明する。
我々は、現在SciANNで利用可能な機能を要約し、現在および将来の開発について概説する。
関連論文リスト
- Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Efficient, probabilistic analysis of combinatorial neural codes [0.0]
ニューラルネットワークは、個々のニューロンの活動の組み合わせの形で入力を符号化する。
これらのニューラルネットワークは、その高次元性としばしば大量のデータのため、計算上の課題を示す。
従来の手法を小さな例に適用し,実験によって生成された大きなニューラルコードに適用する。
論文 参考訳(メタデータ) (2022-10-19T11:58:26Z) - SPAIC: A Spike-based Artificial Intelligence Computing Framework [22.133585707508963]
本稿では,Python ベースのスパイキングニューラルネットワーク (SNN) シミュレーションおよびトレーニングフレームワーク SPAIC を提案する。
ディープラーニングと神経科学の両方の機能と統合された、脳にインスパイアされたモデルとアルゴリズムの研究をサポートすることを目指している。
ニューラルサーキット、深層SNN学習、ニューロモルフィック応用など、さまざまな例を挙げる。
論文 参考訳(メタデータ) (2022-07-26T08:57:42Z) - Incorporating Prior Knowledge into Neural Networks through an Implicit
Composite Kernel [1.6383321867266318]
Implicit Composite Kernel (ICK) は、ニューラルネットワークによって暗黙的に定義されたカーネルと、既知のプロパティをモデル化するために選択された第2のカーネル関数を組み合わせたカーネルである。
合成データセットと実世界のデータセットの両方において、ICKの優れた性能と柔軟性を実証する。
論文 参考訳(メタデータ) (2022-05-15T21:32:44Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - IDRLnet: A Physics-Informed Neural Network Library [9.877979064734802]
物理情報ニューラルネットワーク(英: Physics Informed Neural Network, PINN)は、前方および逆問題の両方を解決するために使用される科学計算フレームワークである。
本稿では,PINNによる問題をモデル化および解決するためのPythonツールボックスであるIDRLnetを紹介する。
論文 参考訳(メタデータ) (2021-07-09T09:18:35Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。