論文の概要: BLISSNet: Deep Operator Learning for Fast and Accurate Flow Reconstruction from Sparse Sensor Measurements
- arxiv url: http://arxiv.org/abs/2602.24228v1
- Date: Fri, 27 Feb 2026 17:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.544378
- Title: BLISSNet: Deep Operator Learning for Fast and Accurate Flow Reconstruction from Sparse Sensor Measurements
- Title(参考訳): BLISSNet:スパースセンサによる高速かつ高精度な流れ再構成のための深層演算子学習
- Authors: Maksym Veremchuk, K. Andrea Scott, Zhao Pan,
- Abstract要約: 本稿では,再構成精度と計算効率の強いバランスをとるモデルBLISSNetを紹介する。
BLISSNetはDeepONetのようなアーキテクチャに従っており、任意のサイズのドメインに対するゼロショット推論を可能にする。
この高精度、低コスト、ゼロショットの組み合わせにより、BLISSNetは大規模リアルタイムフロー再構築やデータ同化作業に適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reconstructing fluid flows from sparse sensor measurements is a fundamental challenge in science and engineering. Widely separated measurements and complex, multiscale dynamics make accurate recovery of fine-scale structures difficult. In addition, existing methods face a persistent tradeoff: high-accuracy models are often computationally expensive, whereas faster approaches typically compromise fidelity. In this work, we introduce BLISSNet, a model that strikes a strong balance between reconstruction accuracy and computational efficiency for both flow reconstruction and nudging-based data assimilation. The model follows a DeepONet-like architecture, enabling zero-shot inference on domains of arbitrary size. After the first model call on a given domain, certain network components can be precomputed, leading to low inference cost for subsequent evaluations on large domains. Consequently, the model can achieve faster inference than classical interpolation methods such as radial basis function or bicubic interpolation. This combination of high accuracy, low cost, and zero-shot generalization makes BLISSNet well-suited for large-scale real-time flow reconstruction and data assimilation tasks.
- Abstract(参考訳): スパースセンサー測定から流体の流れを再構築することは、科学と工学の基本的な課題である。
広く分離された測定と複雑なマルチスケールの力学は、微細な構造物の正確な回復を困難にしている。
高い精度のモデルはしばしば計算コストがかかるが、高速なアプローチは典型的には忠実さを損なう。
本研究では,フロー再構成とnudging-basedデータ同化の両面において,再構成精度と計算効率の強いバランスをとるモデルBLISSNetを紹介する。
このモデルはDeepONetのようなアーキテクチャに従っており、任意のサイズのドメインに対するゼロショット推論を可能にする。
与えられたドメインに対する最初のモデル呼び出しの後、特定のネットワークコンポーネントを事前計算し、大きなドメインに対するその後の評価に対する推論コストを低くすることができる。
その結果、このモデルは放射基底関数やバイコビック補間のような古典的補間法よりも高速な推論が可能となった。
この高精度、低コスト、ゼロショットの一般化の組み合わせにより、BLISSNetは大規模リアルタイムフロー再構成やデータ同化タスクに適している。
関連論文リスト
- Super-resolution of turbulent reacting flows on complex meshes using graph neural networks [0.0]
最先端のディープラーニングモデルは、乱流の粗い粒度データから小さな構造を再構築するために広く利用されている。
本研究では、グラフニューラルネットワーク(GNN)の固有の柔軟性を活用し、複雑なメッシュ上の低分解能データから未解決の小規模構造を再構築する手法を開発する。
論文 参考訳(メタデータ) (2026-03-01T12:53:14Z) - ANCRe: Adaptive Neural Connection Reassignment for Efficient Depth Scaling [57.91760520589592]
ネットワークの深度を拡大することは、現代の基礎モデルの成功の背後にある中心的な要因である。
本稿では,ニューラルネットワークの奥行き,すなわち残差接続の既定メカニズムを再考する。
我々は、データから残余接続性をパラメータ化し、学習する原則的かつ軽量なフレームワークである、適応型ニューラルネットワーク再割り当て(ANCRe)を導入する。
論文 参考訳(メタデータ) (2026-02-09T18:54:18Z) - Flow-Matching Guided Deep Unfolding for Hyperspectral Image Reconstruction [53.26903617819014]
Flow-Matching-Guided Unfolding Network (FMU)は、最初にフローマッチングをHSI再構成に統合する。
学習力学をさらに強化するために,平均速度損失を導入する。
シミュレーションと実データの両方の実験により、FMUは復元品質において既存のアプローチよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-10-02T11:32:00Z) - Fusing CFD and measurement data using transfer learning [49.1574468325115]
本稿では,伝送学習によるシミュレーションと計測データを組み合わせたニューラルネットワークに基づく非線形手法を提案する。
最初のステップでは、ニューラルネットワークがシミュレーションデータに基づいてトレーニングされ、分散量の空間的特徴を学習する。
第2のステップは、ニューラルネットワークモデル全体の小さなサブセットを再トレーニングするだけで、シミュレーションと測定の間の体系的なエラーを修正するために、測定データ上での変換学習である。
論文 参考訳(メタデータ) (2025-07-28T07:21:46Z) - Sparse identification of nonlinear dynamics and Koopman operators with Shallow Recurrent Decoder Networks [3.1484174280822845]
本稿では, 簡易な実装, 効率的, 堅牢な性能で, センサとモデル識別の問題を共同で解決する手法を提案する。
SINDy-SHREDはGated Recurrent Unitsを使用してスパースセンサー計測と浅いネットワークデコーダをモデル化し、潜在状態空間からフルタイムフィールドを再構築する。
本研究では, 乱流, 海面温度の実環境センサ計測, 直接ビデオデータなどのPDEデータに関する系統的研究を行った。
論文 参考訳(メタデータ) (2025-01-23T02:18:13Z) - FLRONet: Deep Operator Learning for High-Fidelity Fluid Flow Field Reconstruction from Sparse Sensor Measurements [0.47745223151611654]
本研究では,スパースセンサによる流体流れ場再構築のための深層演算子学習フレームワークであるFLRONetを紹介する。
FLRONetは、センサ測定が不正確な場合や欠落の場合であっても、高いレベルの再現精度と堅牢性を達成する。
論文 参考訳(メタデータ) (2024-12-11T01:28:48Z) - Mean flow data assimilation using physics-constrained Graph Neural Networks [0.0]
本研究では,グラフニューラルネットワーク(GNN)と最適化手法を統合し,平均流路復元の精度を高める新しいデータ同化手法を提案する。
GNNフレームワークは非構造化データを扱うのに適しており、計算流体力学(CFD)で遭遇する複雑な測地に共通している。
その結果,データ駆動モデルに類似するモデルと比較して,訓練データに制限がある場合でも,平均フロー再構成の精度は著しく向上した。
論文 参考訳(メタデータ) (2024-11-14T14:31:52Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - FasterPose: A Faster Simple Baseline for Human Pose Estimation [65.8413964785972]
本稿では,高速ポーズ推定のためのLR表現を用いた費用対効果ネットワークの設計パラダイムであるFasterPoseを提案する。
我々は,FasterPoseのトレーニング挙動について検討し,収束を加速する新しい回帰クロスエントロピー(RCE)損失関数を定式化する。
従来のポーズ推定ネットワークと比較すると,FLOPの58%が減少し,精度が1.3%向上した。
論文 参考訳(メタデータ) (2021-07-07T13:39:08Z) - FDFlowNet: Fast Optical Flow Estimation using a Deep Lightweight Network [12.249680550252327]
我々はFDFlowNet(fast Deep Flownet)と呼ばれるリアルタイム光フロー推定のための軽量で効果的なモデルを提案する。
我々は、PWC-Netの約2倍の速度で、挑戦的なKITTIとSintelベンチマークにおいて、より良い、あるいは同様の精度を達成する。
論文 参考訳(メタデータ) (2020-06-22T14:01:01Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。