論文の概要: Neural Stream Functions
- arxiv url: http://arxiv.org/abs/2307.08142v1
- Date: Sun, 16 Jul 2023 19:46:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 15:22:57.201900
- Title: Neural Stream Functions
- Title(参考訳): ニューラルストリーム関数
- Authors: Skylar Wolfgang Wurster, Hanqi Guo, Tom Peterka, Han-Wei Shen
- Abstract要約: 本稿では,ストリーム関数をニューラルネットワークで計算する手法を提案する。
その結果,流れ関数の等曲面は流れ面を抽出し,流れの特徴を可視化して解析することができることがわかった。
- 参考スコア(独自算出の注目度): 12.785293313785871
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a neural network approach to compute stream functions, which are
scalar functions with gradients orthogonal to a given vector field. As a
result, isosurfaces of the stream function extract stream surfaces, which can
be visualized to analyze flow features. Our approach takes a vector field as
input and trains an implicit neural representation to learn a stream function
for that vector field. The network learns to map input coordinates to a stream
function value by minimizing the inner product of the gradient of the neural
network's output and the vector field. Since stream function solutions may not
be unique, we give optional constraints for the network to learn particular
stream functions of interest. Specifically, we introduce regularizing loss
functions that can optionally be used to generate stream function solutions
whose stream surfaces follow the flow field's curvature, or that can learn a
stream function that includes a stream surface passing through a seeding rake.
We also discuss considerations for properly visualizing the trained implicit
network and extracting artifact-free surfaces. We compare our results with
other implicit solutions and present qualitative and quantitative results for
several synthetic and simulated vector fields.
- Abstract(参考訳): 本稿では,与えられたベクトル場に直交する勾配を持つスカラー関数であるストリーム関数をニューラルネットワークで計算する。
その結果, 流れ関数のイソサーフェスが流れ面を抽出し, 流れの特徴を分析するために可視化できる。
提案手法はベクトル場を入力とし,そのベクトル場に対するストリーム関数を学習するために暗黙のニューラル表現を訓練する。
ネットワークは、ニューラルネットワークの出力の勾配の内積とベクトル場の最小化により、入力座標をストリーム関数値にマップすることを学習する。
ストリーム関数ソリューションはユニークではないかもしれないので、特定のストリーム関数を学習するネットワークに対して、任意の制約を与える。
具体的には, 流れ面が流れ場の曲率に従うストリーム関数の解を任意に生成したり, シードレークを通過するストリーム面を含むストリーム関数を学習するために, 損失関数の正規化を導入する。
また、トレーニングされた暗黙的ネットワークを適切に可視化し、アーティファクトフリーな表面を抽出するための考慮事項についても検討する。
我々は、これらの結果を他の暗黙解と比較し、いくつかの合成およびシミュレートされたベクトル場に対する定性的および定量的結果を示す。
関連論文リスト
- A Resolution Independent Neural Operator [0.0]
我々は、DeepONetを非依存にするためのフレームワークを提供するRINOを紹介します。
RINOにより、DeepONetは任意に、しかし十分に微妙に識別された入力関数を処理できる。
任意の(しかし十分にリッチな)サンプル入力および出力関数の処理におけるRINOの堅牢性と適用性を示す。
論文 参考訳(メタデータ) (2024-07-17T21:03:21Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Points of non-linearity of functions generated by random neural networks [0.0]
1つの隠れ活性化層、任意の幅、ReLU活性化関数を持つニューラルネットワークによって出力される実数から実数への関数を考える。
非線型性の点の期待分布を計算する。
論文 参考訳(メタデータ) (2023-04-19T17:40:19Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - A Tutorial on Neural Networks and Gradient-free Training [0.0]
本稿では,自己完結型チュートリアル方式で,ニューラルネットワークのコンパクトな行列ベース表現を提案する。
ニューラルネットワークは数個のベクトル値関数を構成する数学的非線形関数である。
論文 参考訳(メタデータ) (2022-11-26T15:33:11Z) - FlowX: Towards Explainable Graph Neural Networks via Message Flows [59.025023020402365]
グラフニューラルネットワーク(GNN)の動作メカニズム解明へのステップとして,その説明可能性について検討する。
本稿では,重要なメッセージフローを識別してGNNを説明するために,FlowXと呼ばれる新しい手法を提案する。
そこで我々は,多様な説明対象に向けて,フロースコアを学習するための情報制御学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-26T22:48:15Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Estimating Vector Fields from Noisy Time Series [6.939768185086753]
一次元神経形状関数のテンソル積からなるニューラルネットワークアーキテクチャについて述べる。
ニューラルネットワークの近似特性はニューラル形状関数アーキテクチャで維持されている。
また、我々のニューラル形状関数法と既存の微分方程式学習法を交互に最小化と複数軌跡に組み合わせて検討した。
論文 参考訳(メタデータ) (2020-12-06T07:27:56Z) - Estimating Multiplicative Relations in Neural Networks [0.0]
対数関数の特性を用いて、積を線形表現に変換し、バックプロパゲーションを用いて学習できるアクティベーション関数のペアを提案する。
いくつかの複雑な算術関数に対してこのアプローチを一般化し、トレーニングセットとの不整合分布の精度を検証しようと試みる。
論文 参考訳(メタデータ) (2020-10-28T14:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。