論文の概要: FLINT: Learning-based Flow Estimation and Temporal Interpolation for Scientific Ensemble Visualization
- arxiv url: http://arxiv.org/abs/2409.19178v1
- Date: Fri, 27 Sep 2024 23:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 04:11:01.526901
- Title: FLINT: Learning-based Flow Estimation and Temporal Interpolation for Scientific Ensemble Visualization
- Title(参考訳): FLINT:科学アンサンブル可視化のための学習型フロー推定と時間補間
- Authors: Hamid Gadirov, Jos B. T. M. Roerdink, Steffen Frey,
- Abstract要約: FLINTは、2D以上の時間と3D以上の科学的アンサンブルデータのフロー場を推定するための、新しいディープラーニングベースのアプローチである。
我々の知る限りでは、FLINTは科学的なアンサンブルからの流れを推定する最初のアプローチである。
- 参考スコア(独自算出の注目度): 3.748255320979002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present FLINT (learning-based FLow estimation and temporal INTerpolation), a novel deep learning-based approach to estimate flow fields for 2D+time and 3D+time scientific ensemble data. FLINT can flexibly handle different types of scenarios with (1) a flow field being partially available for some members (e.g., omitted due to space constraints) or (2) no flow field being available at all (e.g., because it could not be acquired during an experiment). The design of our architecture allows to flexibly cater to both cases simply by adapting our modular loss functions, effectively treating the different scenarios as flow-supervised and flow-unsupervised problems, respectively (with respect to the presence or absence of ground-truth flow). To the best of our knowledge, FLINT is the first approach to perform flow estimation from scientific ensembles, generating a corresponding flow field for each discrete timestep, even in the absence of original flow information. Additionally, FLINT produces high-quality temporal interpolants between scalar fields. FLINT employs several neural blocks, each featuring several convolutional and deconvolutional layers. We demonstrate performance and accuracy for different usage scenarios with scientific ensembles from both simulations and experiments.
- Abstract(参考訳): 本稿では,2次元以上の時間と3次元以上の科学的アンサンブルデータに対して,流れ場を推定する新たな深層学習手法であるFLINT(学習ベースフラウ推定と時間的インテリポレーション)を提案する。
FLINTは、(1) フローフィールドが一部のメンバー(例えば、空間の制約により省略された)で部分的に利用可能であること、または(2) フローフィールドが全く利用できないこと(例えば、実験中に取得できなかったこと)で、様々なシナリオを柔軟に処理することができる。
アーキテクチャの設計により、モジュラー損失関数を適用すれば、両方のケースに柔軟に対応することができ、それぞれのシナリオをフロー管理問題とフロー教師なし問題として効果的に扱うことができます。
我々の知る限り、FLINTは科学的なアンサンブルからフローを推定する最初のアプローチであり、元のフロー情報がない場合でも、各離散時間ステップに対して対応するフローフィールドを生成する。
さらに、FLINTはスカラーフィールド間で高品質な時間補間剤を生成する。
FLINTにはいくつかの神経ブロックがあり、それぞれに複数の畳み込み層と非畳み込み層がある。
シミュレーションと実験の両方から科学的アンサンブルを用いて,様々な利用シナリオのパフォーマンスと精度を示す。
関連論文リスト
- SSRFlow: Semantic-aware Fusion with Spatial Temporal Re-embedding for Real-world Scene Flow [6.995663556921384]
シーンフローは、2つの連続する点雲から第1フレームの3次元運動場を提供する。
本稿では,2つのフレーム間の融合とアライメントのためのDCA(Dual Cross Attentive)という新しい手法を提案する。
我々は、新しいドメイン適応損失を利用して、合成から実世界への動き推論のギャップを効果的に橋渡しする。
論文 参考訳(メタデータ) (2024-07-31T02:28:40Z) - FFHFlow: A Flow-based Variational Approach for Multi-fingered Grasp Synthesis in Real Time [19.308304984645684]
正規化フロー(NF)に基づくDGM(Deep Generative Model)の利用を提案する。
我々はまず,不完全点雲上に条件付きグリップ分布を学習するために,単一条件NF(cNFs)を直接適用することにより,多様性の向上を推し進めた。
これにより、我々は新しいフローベースd Deep Latent Variable Model (DLVM)を開発する動機となった。
変分オートエンコーダ(VAE)とは異なり、提案するDLVMは2つのcNFを事前分布と可能性分布に利用することにより、典型的な落とし穴に対処する。
論文 参考訳(メタデータ) (2024-07-21T13:33:08Z) - STARFlow: Spatial Temporal Feature Re-embedding with Attentive Learning for Real-world Scene Flow [5.476991379461233]
両ユークリッド空間における全点対に一致する大域的注意流埋め込みを提案する。
我々は、新しいドメイン適応損失を利用して、合成から実世界への動き推論のギャップを埋める。
提案手法は,実世界のLiDARスキャンデータセットにおいて特に顕著な結果を得て,各種データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-11T04:56:10Z) - Fully-Connected Spatial-Temporal Graph for Multivariate Time-Series Data [50.84488941336865]
完全時空間グラフニューラルネットワーク(FC-STGNN)という新しい手法を提案する。
グラフ構築のために、時間的距離に基づいて、すべてのタイムスタンプにセンサーを接続する減衰グラフを設計する。
グラフ畳み込みのために,移動プールGNN層を用いたFCグラフ畳み込みを考案し,ST依存性を効果的に把握し,効率的な表現を学習する。
論文 参考訳(メタデータ) (2023-09-11T08:44:07Z) - FourierHandFlow: Neural 4D Hand Representation Using Fourier Query Flow [55.61843393812704]
最近の4次元形状表現は、明瞭な形状間の暗黙の対応を捉えたり、ジッタリー時間変形を規則化するものではない。
音声による手指の時間的変形を効果的にモデル化するために,2種類の問合せフローに基づいて4次元表現を構成する。
提案手法は,既存の3D/4D暗示形状表現よりも高効率でありながら,映像ベースの4D再構成における最先端結果を実現する。
論文 参考訳(メタデータ) (2023-07-16T16:58:37Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Averaging Spatio-temporal Signals using Optimal Transport and Soft
Alignments [110.79706180350507]
Fr'teche は双対性を意味し, 時間的バレシェセンタを定義するために提案した損失が有効であることを示す。
手書き文字と脳画像データによる実験は、我々の理論的発見を裏付けるものである。
論文 参考訳(メタデータ) (2022-03-11T09:46:22Z) - Residual 3D Scene Flow Learning with Context-Aware Feature Extraction [11.394559627312743]
ユークリッド空間の文脈構造情報を活用するために,新しいコンテキスト対応集合 conv 層を提案する。
また, 遠距離移動に対処するため, 残留流微細化層に明示的な残留流学習構造を提案する。
提案手法は, これまでのすべての成果を, 少なくとも25%以上の知識に上回りながら, 最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-09-10T06:15:18Z) - Deep Learning Interfacial Momentum Closures in Coarse-Mesh CFD Two-Phase
Flow Simulation Using Validation Data [5.099083753474628]
FSM(Feature-Similarity Measurement)を開発し, 粗面CFD法により二相流のシミュレーション性能を向上させる。
FSMは界面閉鎖の選択に関係なく粗いメッシュCFDモデルの予測を大幅に改善することができる。
論文 参考訳(メタデータ) (2020-05-07T21:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。