論文の概要: Machine learning moment closure models for the radiative transfer
equation I: directly learning a gradient based closure
- arxiv url: http://arxiv.org/abs/2105.05690v1
- Date: Wed, 12 May 2021 14:24:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 17:58:46.686991
- Title: Machine learning moment closure models for the radiative transfer
equation I: directly learning a gradient based closure
- Title(参考訳): 放射移動方程式の機械学習モーメント閉包モデルI:勾配に基づく閉包を直接学習する
- Authors: Juntao Huang, Yingda Cheng, Andrew J. Christlieb, Luke F. Roberts
- Abstract要約: ニューラルネットワークを用いて高次モーメントの勾配を学習することを提案する。
可変散乱問題を含む様々なベンチマークテストは、機械学習クロージャモデルの精度と一般化性の両方を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we take a data-driven approach and apply machine learning to
the moment closure problem for radiative transfer equation in slab geometry.
Instead of learning the unclosed high order moment, we propose to directly
learn the gradient of the high order moment using neural networks. This new
approach is consistent with the exact closure we derive for the free streaming
limit and also provides a natural output normalization. A variety of benchmark
tests, including the variable scattering problem, the Gaussian source problem
and the two material problem, show both good accuracy and generalizability of
our machine learning closure model.
- Abstract(参考訳): 本稿では,スラブ幾何学における放射移動方程式のモーメントクロージャ問題に対して,データ駆動型アプローチを用いて機械学習を適用する。
閉ざされた高次モーメントを学習する代わりに、ニューラルネットワークを用いて高次モーメントの勾配を直接学習することを提案する。
この新しいアプローチは、我々が自由ストリーミング制限のために導出する完全閉包と一致し、自然な出力正規化も提供する。
可変散乱問題、ガウス音源問題、および2つの材料問題を含む様々なベンチマークテストは、機械学習クロージャモデルの精度と一般化性の両方を示している。
関連論文リスト
- Learnable Infinite Taylor Gaussian for Dynamic View Rendering [55.382017409903305]
本稿では,ガウスの時間的進化をモデル化するための学習可能なテイラー式に基づく新しいアプローチを提案する。
提案手法は,本領域における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-12-05T16:03:37Z) - Hyperbolic Machine Learning Moment Closures for the BGK Equations [0.0]
本稿では,BGKのモーメントデータに基づいてトレーニングされたニューラルネットワーク(NN)を用いて,Bhatnagar-Gross-Krookの運動モデルのグラッドモーメント展開のための双曲的クロージャを導入する。
この閉鎖は、Huang2022-RTE1輸送路における閉鎖に関する論文で得られた自由ストリーミング制限の正確な閉鎖によって動機づけられる。
論文 参考訳(メタデータ) (2024-01-09T19:14:57Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - Error-Correcting Neural Networks for Two-Dimensional Curvature
Computation in the Level-Set Method [0.0]
本稿では,2次元曲率をレベルセット法で近似するための誤差ニューラルモデルに基づく手法を提案する。
我々の主な貢献は、需要に応じて機械学習操作を可能にする数値スキームに依存する、再設計されたハイブリッド・ソルバである。
論文 参考訳(メタデータ) (2022-01-22T05:14:40Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Machine learning moment closure models for the radiative transfer
equation III: enforcing hyperbolicity and physical characteristic speeds [0.0]
放射移動方程式(RTE)のための機械学習(ML)モーメントクロージャモデルの開発
閉包システムの係数行列がより低いヘッセンベルグ行列であるという観測により,その固有値と関連するニューラルネットワークの根の関係を考察した。
論文 参考訳(メタデータ) (2021-09-02T04:16:56Z) - Machine learning moment closure models for the radiative transfer
equation II: enforcing global hyperbolicity in gradient based closures [0.0]
放射移動方程式(RTE)のための機械学習(ML)モーメントクロージャモデルを開発するシリーズにおける2番目の論文である。
本稿では,ML閉鎖モデルの大域的双曲性を強制する手法を提案する。
新しいML閉包系は、RTEの散逸性を継承し、クンスデン数が 0 になるにつれて正しい拡散限界を保っていることが示されている。
論文 参考訳(メタデータ) (2021-05-30T02:10:59Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。