論文の概要: Representing Flow Fields with Divergence-Free Kernels for Reconstruction
- arxiv url: http://arxiv.org/abs/2504.01913v1
- Date: Wed, 02 Apr 2025 17:13:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:18:21.277086
- Title: Representing Flow Fields with Divergence-Free Kernels for Reconstruction
- Title(参考訳): 可変カーネルを用いた再構成のための流れ場表現
- Authors: Xingyu Ni, Jingrui Xing, Xingqiao Li, Bin Wang, Baoquan Chen,
- Abstract要約: 分散自由カーネル(DFK)に基づく新しい流れ場再構築フレームワークを提案する。
DFKs-Wen4は速度場に対する解析的分散のない近似の最適形である。
- 参考スコア(独自算出の注目度): 26.098802942143642
- License:
- Abstract: Accurately reconstructing continuous flow fields from sparse or indirect measurements remains an open challenge, as existing techniques often suffer from oversmoothing artifacts, reliance on heterogeneous architectures, and the computational burden of enforcing physics-informed losses in implicit neural representations (INRs). In this paper, we introduce a novel flow field reconstruction framework based on divergence-free kernels (DFKs), which inherently enforce incompressibility while capturing fine structures without relying on hierarchical or heterogeneous representations. Through qualitative analysis and quantitative ablation studies, we identify the matrix-valued radial basis functions derived from Wendland's $\mathcal{C}^4$ polynomial (DFKs-Wen4) as the optimal form of analytically divergence-free approximation for velocity fields, owing to their favorable numerical properties, including compact support, positive definiteness, and second-order differentiablility. Experiments across various reconstruction tasks, spanning data compression, inpainting, super-resolution, and time-continuous flow inference, has demonstrated that DFKs-Wen4 outperform INRs and other divergence-free representations in both reconstruction accuracy and computational efficiency while requiring the fewest trainable parameters.
- Abstract(参考訳): 余分な測定や間接的な測定から連続的な流れ場を正確に再構築することは、既存の技術が過剰な人工物、異種アーキテクチャへの依存、暗黙の神経表現(INR)における物理インフォームド・ロスを強制する計算上の負担に悩まされることがしばしばあるため、未解決の課題である。
本稿では, 階層的あるいは不均一な表現に頼ることなく, 微細構造を捕捉しながら非圧縮性を本質的に強化する, 分散自由カーネル(DFK)に基づく新しい流れ場再構築フレームワークを提案する。
定性的解析および定量的アブレーション研究により、ウェンドランドの$\mathcal{C}^4$ polynomial (DFKs-Wen4) から導かれる行列値の放射基底関数を、コンパクトな支持、正定性、二階微分等を含むそれらの好ましい数値的性質により、解析的分散のない速度場近似の最適形式として同定する。
データ圧縮、塗装、超解像、時間連続フロー推論といった様々な再構成タスクにおける実験により、DFKs-Wen4は、最小のトレーニング可能なパラメータを必要としながら、再構成精度と計算効率の両方において、INRおよび他のばらつきのない表現より優れていることを示した。
関連論文リスト
- Hybrid Two-Stage Reconstruction of Multiscale Subsurface Flow with Physics-informed Residual Connected Neural Operator [4.303037819686676]
本稿では,マルチスケール基底関数と物理誘導深層学習を用いてDarcyフロー問題を解決するハイブリッド2段階フレームワークを提案する。
このフレームワークは、基底関数の嵌合と圧力再構成の点で0.9以上のR2値を達成し、残差指標は10-4$のオーダーである。
論文 参考訳(メタデータ) (2025-01-22T23:28:03Z) - A Structure-Preserving Kernel Method for Learning Hamiltonian Systems [3.594638299627404]
構造保存されたカーネルリッジ回帰法は、潜在的に高次元かつ非線形なハミルトン関数の回復を可能にする。
本稿では,勾配の線形関数を含む損失関数が要求される問題に対して,カーネル回帰法を拡張した。
固定正則化パラメータと適応正則化パラメータを用いて収束率を提供する完全誤差解析を行う。
論文 参考訳(メタデータ) (2024-03-15T07:20:21Z) - Nonparametric Instrumental Variable Regression through Stochastic Approximate Gradients [0.3277163122167434]
集団リスクを直接最小化することにより,NPIV回帰に対処するための関数勾配降下アルゴリズムの定式化方法を示す。
我々は,過大なリスクに対するバウンダリの形で理論的支援を行い,提案手法の優れた安定性と競争性能を示す数値実験を行った。
このアルゴリズムは、ニューラルネットワークやカーネルベースの手法のような柔軟な推定器の選択と、非二次的損失関数を可能にする。
論文 参考訳(メタデータ) (2024-02-08T12:50:38Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Learning Discretized Neural Networks under Ricci Flow [48.47315844022283]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Spectral Decomposition Representation for Reinforcement Learning [100.0424588013549]
本稿では, スペクトル分解表現法(SPEDER)を提案する。この手法は, データ収集ポリシーに急激な依存を生じさせることなく, ダイナミックスから状態-作用の抽象化を抽出する。
理論的解析により、オンライン設定とオフライン設定の両方において提案アルゴリズムのサンプル効率が確立される。
実験により、いくつかのベンチマークで現在の最先端アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-19T19:01:30Z) - Physics-informed Deep Super-resolution for Spatiotemporal Data [18.688475686901082]
ディープ・ラーニングは、粗い粒度のシミュレーションに基づいて科学的データを増やすのに使うことができる。
物理インフォームドラーニングにインスパイアされた、豊かで効率的な時間的超解像フレームワークを提案する。
その結果,提案手法の有効性と効率が,ベースラインアルゴリズムと比較して優れていることが示された。
論文 参考訳(メタデータ) (2022-08-02T13:57:35Z) - A deep learning driven pseudospectral PCE based FFT homogenization
algorithm for complex microstructures [68.8204255655161]
提案手法は,従来の手法よりも高速に評価できる一方で,興味の中心モーメントを予測できることを示す。
提案手法は,従来の手法よりも高速に評価できると同時に,興味の中心モーメントを予測できることを示す。
論文 参考訳(メタデータ) (2021-10-26T07:02:14Z) - A Nonconvex Framework for Structured Dynamic Covariance Recovery [24.471814126358556]
時間変化のある2次統計量を持つ高次元データに対するフレキシブルで解釈可能なモデルを提案する。
文献によって動機付けられ,因子化とスムーズな時間データの定量化を行う。
私たちのアプローチは,既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-11-11T07:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。