論文の概要: A discontinuity-capturing neural network with categorical embedding and its application to anisotropic elliptic interface problems
- arxiv url: http://arxiv.org/abs/2503.15441v1
- Date: Wed, 19 Mar 2025 17:21:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 17:45:41.033605
- Title: A discontinuity-capturing neural network with categorical embedding and its application to anisotropic elliptic interface problems
- Title(参考訳): カテゴリー埋め込み型不連続捕捉ニューラルネットワークとその異方性楕円界面問題への応用
- Authors: Wei-Fan Hu, Te-Sheng Lin, Ming-Chih Lai,
- Abstract要約: 本研究では,予測精度の高い単一ニューラルネットワークにより,片方向の滑らかな関数を近似可能であることを示す。
次に、提案したネットワークモデルを用いて、異方性楕円型インタフェースの問題を解決する。
提案したニューラルネットワークモデルは, 単純かつ浅い構造であるにもかかわらず, 従来のグリッドベース数値法と同等の効率と精度を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a discontinuity-capturing shallow neural network with categorical embedding to represent piecewise smooth functions. The network comprises three hidden layers, a discontinuity-capturing layer, a categorical embedding layer, and a fully-connected layer. Under such a design, we show that a piecewise smooth function, even with a large number of pieces, can be approximated by a single neural network with high prediction accuracy. We then leverage the proposed network model to solve anisotropic elliptic interface problems. The network is trained by minimizing the mean squared error loss of the system. Our results show that, despite its simple and shallow structure, the proposed neural network model exhibits comparable efficiency and accuracy to traditional grid-based numerical methods.
- Abstract(参考訳): 本稿では,一方向のスムーズな関数を表現するために,分類的埋め込みを用いた不連続捕捉型浅層ニューラルネットワークを提案する。
ネットワークは、3つの隠蔽層、不連続保持層、カテゴリー埋め込み層、および完全連結層からなる。
このような設計の下では,多数の部品であっても,予測精度の高い1つのニューラルネットワークにより,断片的に滑らかな関数を近似できることが示される。
次に、提案したネットワークモデルを用いて、異方性楕円型インタフェースの問題を解決する。
ネットワークは、システムの平均2乗誤差損失を最小限にして訓練される。
提案したニューラルネットワークモデルは, 単純かつ浅い構造であるにもかかわらず, 従来のグリッドベース数値法と同等の効率と精度を示す。
関連論文リスト
- A 3D Machine Learning based Volume Of Fluid scheme without explicit interface reconstruction [0.0]
三次元領域上での多物質フローをシミュレーションする機械学習に基づくVolume of Fluid法を提案する。
この手法の斬新な点の1つは、以前に訓練されたニューラルネットワークを評価してフラックス分数を計算することである。
メッシュのサイズが0$h=1/N_hsearrow 0$になる傾向にあるため、数値収束は2つの参照スキームよりもよい。
論文 参考訳(メタデータ) (2025-07-07T17:30:00Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - SieveNet: Selecting Point-Based Features for Mesh Networks [41.74190660234404]
メッシュは3Dコンピュータビジョンとグラフィックスで広く使用されているが、その不規則なトポロジは、既存のニューラルネットワークアーキテクチャに適用する際の課題を提起している。
メッシュニューラルネットワークの最近の進歩は、生メッシュを入力としてのみ取り込むパイオニアメソッドの境界を押し付けている。
本稿では、正規位相と正確な幾何学の両方を考慮した新しいパラダイムであるSieveNetを提案する。
論文 参考訳(メタデータ) (2023-08-24T03:40:16Z) - ReLU Neural Networks with Linear Layers are Biased Towards Single- and Multi-Index Models [9.96121040675476]
この原稿は、2層以上の深さのニューラルネットワークによって学習された関数の性質が予測にどのように影響するかを考察している。
我々のフレームワークは、すべて同じキャパシティを持つが表現コストが異なる、様々な深さのネットワーク群を考慮に入れている。
論文 参考訳(メタデータ) (2023-05-24T22:10:12Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - A cusp-capturing PINN for elliptic interface problems [0.0]
ネットワークに付加的な特徴入力としてカスプ強化レベルセット関数を導入し,本質的な解特性を維持する。
提案したニューラルネットワークはメッシュフリーの利点があるため、不規則なドメインでの問題を容易に処理できる。
本研究では,カスプキャプチャ手法の有効性とネットワークモデルの精度を実証するために,一連の数値実験を行った。
論文 参考訳(メタデータ) (2022-10-16T03:05:18Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Exact Solutions of a Deep Linear Network [2.2344764434954256]
この研究は、重み減衰とニューロンを持つディープ線形ネットワークの大域的ミニマを解析的に表現することを発見した。
重み減衰はモデルアーキテクチャと強く相互作用し、1ドル以上の隠蔽層を持つネットワークにおいてゼロで悪いミニマを生成できることを示す。
論文 参考訳(メタデータ) (2022-02-10T00:13:34Z) - Error-Correcting Neural Networks for Semi-Lagrangian Advection in the
Level-Set Method [0.0]
本稿では,画像超解像技術とスカラートランスポートを融合した機械学習フレームワークを提案する。
我々は,インターフェースの粗いメッシュ進化における数値粘度を最小化するために,オンザフライデータ駆動補正を計算できるかどうかを検討する。
論文 参考訳(メタデータ) (2021-10-22T06:36:15Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - A Discontinuity Capturing Shallow Neural Network for Elliptic Interface
Problems [0.0]
連続関数を$d$次元で近似し,楕円型インタフェース問題を解くための不連続キャプチャ・シャローニューラルネットワーク(DCSNN)を開発した。
DCSNNモデルは、トレーニングが必要なパラメータの適度な数だけのために、比較的に効率的である。
論文 参考訳(メタデータ) (2021-06-10T08:40:30Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - Reduced Order Modeling using Shallow ReLU Networks with Grassmann Layers [0.0]
本稿では,構造化ニューラルネットワークを用いた方程式系の非線形モデル低減法を提案する。
本稿では,ニューラルネットワークの近似に適さないデータスカース方式の科学的問題に対して,本手法が適用可能であることを示す。
論文 参考訳(メタデータ) (2020-12-17T21:35:06Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - A deep learning approach for the computation of curvature in the
level-set method [0.0]
そこで本研究では,2次元暗黙曲線の平均曲率をレベルセット法で推定する手法を提案する。
我々のアプローチは、様々な解像度の均一な格子に没入した円柱から構築された合成データセットにフィードフォワードニューラルネットワークを適合させることに基づいている。
論文 参考訳(メタデータ) (2020-02-04T00:49:47Z) - Avoiding Spurious Local Minima in Deep Quadratic Networks [0.0]
ニューラルアクティベーション機能を持つネットワークにおける平均2乗非線形誤差の景観を特徴付ける。
2次アクティベーションを持つ深層ニューラルネットワークは、類似した景観特性の恩恵を受けることが証明された。
論文 参考訳(メタデータ) (2019-12-31T22:31:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。