論文の概要: Neural Network Surrogate Models for Absorptivity and Emissivity Spectra
of Multiple Elements
- arxiv url: http://arxiv.org/abs/2106.02528v1
- Date: Fri, 4 Jun 2021 14:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 19:29:03.387278
- Title: Neural Network Surrogate Models for Absorptivity and Emissivity Spectra
of Multiple Elements
- Title(参考訳): ニューラルネットワークによる多元素の吸収性と放射率スペクトルのモデル
- Authors: Michael D. Vander Wal (1), Ryan G. McClarren (1), Kelli D. Humbird (2)
((1) University of Notre Dame, (2) Lawrence Livermore National Laboratory)
- Abstract要約: 特に、プラズマの不透明度の計算は、シミュレーションの他の全てのコンポーネントの合計計算時間を何倍も必要とする場合に費用がかかる。
これまでの研究では、完全に接続されたオートエンコーダとディープジョイントインフォームドニューラルネットワーク(DJINN)を組み合わせることで、クリプトンの不透明度に対する標準的なNLTE計算を置き換えることに成功した。
この研究は、幅広い原子番号にわたる複数の要素を1つのオートエンコーダに結合でき、個々の完全連結オートエンコーダに匹敵する精度を維持していることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulations of high energy density physics are expensive in terms of
computational resources. In particular, the computation of opacities of
plasmas, which are needed to accurately compute radiation transport in the
non-local thermal equilibrium (NLTE) regime, are expensive to the point of
easily requiring multiple times the sum-total compute time of all other
components of the simulation. As such, there is great interest in finding ways
to accelerate NLTE computations. Previous work has demonstrated that a
combination of fully-connected autoencoders and a deep jointly-informed neural
network (DJINN) can successfully replace the standard NLTE calculations for the
opacity of krypton. This work expands this idea to multiple elements in
demonstrating that individual surrogate models can be also be generated for
other elements with the focus being on creating autoencoders that can
accurately encode and decode the absorptivity and emissivity spectra.
Furthermore, this work shows that multiple elements across a large range of
atomic numbers can be combined into a single autoencoder when using a
convolutional autoencoder while maintaining accuracy that is comparable to
individual fully-connected autoencoders. Lastly, it is demonstrated that DJINN
can effectively learn the latent space of a convolutional autoencoder that can
encode multiple elements allowing the combination to effectively function as a
surrogate model.
- Abstract(参考訳): 高エネルギー密度物理のシミュレーションは計算資源の点で高価である。
特に、非局所熱平衡系(NLTE)における放射輸送を正確に計算するために必要となるプラズマの不透明度の計算は、シミュレーションの他の全てのコンポーネントの合計計算時間を何倍も容易に要求できる点において費用がかかる。
そのため,NLTE計算を高速化する方法の発見には大きな関心がある。
これまでの研究では、完全に接続されたオートエンコーダとディープジョイントインフォームドニューラルネットワーク(DJINN)を組み合わせることで、クリプトンの不透明度に対する標準的なNLTE計算を置き換えることに成功した。
この研究は、このアイデアを複数の要素に拡張し、個々のサロゲートモデルが他の要素に対しても生成可能であることを示すとともに、吸収率と放射率のスペクトルを正確にエンコードしデコードできるオートエンコーダを作成することに重点を置いている。
さらに本研究は, 畳み込みオートエンコーダを用いた場合, 個々の完全連結オートエンコーダに匹敵する精度を維持しつつ, 幅広い原子数にわたる複数の要素を単一のオートエンコーダに結合できることを示す。
最後に、DJINNは、複数の要素をエンコードできる畳み込みオートエンコーダの潜在空間を効果的に学習し、結合を代理モデルとして効果的に機能させることができることを示した。
関連論文リスト
- Efficient Transformer Encoders for Mask2Former-style models [57.54752243522298]
ECO-M2Fは、入力画像上に条件付きエンコーダ内の隠蔽層数を自己選択する戦略である。
提案手法は、性能を維持しながら、予測エンコーダの計算コストを削減する。
アーキテクチャ構成では柔軟性があり、セグメンテーションタスクを超えてオブジェクト検出まで拡張できる。
論文 参考訳(メタデータ) (2024-04-23T17:26:34Z) - Efficient Encoder-Decoder Transformer Decoding for Decomposable Tasks [53.550782959908524]
エンコーダ・デコーダモデルのための新しい構成を導入し、構造化された出力と分解可能なタスクの効率を改善する。
提案手法は,インプットを一度エンコードして並列にデコードすることで,トレーニングと推論の効率を向上する。
論文 参考訳(メタデータ) (2024-03-19T19:27:23Z) - qecGPT: decoding Quantum Error-correcting Codes with Generative
Pre-trained Transformers [5.392298820599664]
生成モデルを用いて量子誤り訂正符号を復号するフレームワークを提案する。
自動回帰ニューラルネットワーク、特にトランスフォーマーを用いて、論理演算子とシンドロームの結合確率を学習する。
我々のフレームワークは汎用的であり、様々なトポロジを持つ任意のエラーモデルや量子コードに適用できる。
論文 参考訳(メタデータ) (2023-07-18T07:34:02Z) - Implementation of the Density-functional Theory on Quantum Computers
with Linear Scaling with respect to the Number of Atoms [1.4502611532302039]
密度汎関数理論(DFT)は化学と物質科学の計算機シミュレーションに革命をもたらした。
理論の忠実な実装には、自己整合性計算が必要である。
本稿では,原子数に対して線形スケーリングを有する量子アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-13T21:17:58Z) - MaxViT-UNet: Multi-Axis Attention for Medical Image Segmentation [0.46040036610482665]
MaxViT-UNetは医療画像セグメンテーションのためのハイブリッドビジョントランス (CNN-Transformer) である。
提案するハイブリッドデコーダは,各復号段階における畳み込み機構と自己保持機構の両方のパワーを利用するように設計されている。
復号器の各段階における多軸自己アテンションの包含は、対象領域と背景領域の識別能力を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-15T07:23:54Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - IAE-Net: Integral Autoencoders for Discretization-Invariant Learning [3.8243923744440935]
本稿では、離散化不変学習のための積分オートエンコーダ(IAE-Net)に基づく新しいディープラーニングフレームワークを提案する。
IAE-Netは、予測データ科学、科学計算における前方および逆問題、信号/画像処理における様々な応用でテストされている。
論文 参考訳(メタデータ) (2022-03-10T03:36:35Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Quantum computing model of an artificial neuron with continuously valued
input data [0.0]
人工ニューロン(英: Artificial Neuron)は、入力ベクトルの形で一連のデータに対して単純な数学的操作を行う計算ユニットである。
従来導入されていた量子人工ニューロンの実装は、離散値の入力ベクトルではなく、連続的に受け入れるように一般化できることを示す。
論文 参考訳(メタデータ) (2020-07-28T14:56:58Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。