論文の概要: Resistance-Time Co-Modulated PointNet for Temporal Super-Resolution
Simulation of Blood Vessel Flows
- arxiv url: http://arxiv.org/abs/2111.10372v1
- Date: Fri, 19 Nov 2021 08:16:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 16:51:32.341516
- Title: Resistance-Time Co-Modulated PointNet for Temporal Super-Resolution
Simulation of Blood Vessel Flows
- Title(参考訳): 血管流れの時間的超解像シミュレーションのための抵抗時間共変調ポイントネット
- Authors: Zhizheng Jiang, Fei Gao, Renshu Gu, Jinlan Xu, Gang Xu, Timon Rabczuk
- Abstract要約: 血管血流の時間的超解像シミュレーションのための新しいディープラーニングフレームワークを提案する。
速度のベクトル特性から振幅損失と速度の向き損失を提案する。
提案フレームワークの有効性と有効性を説明するために,いくつかの例を挙げる。
- 参考スコア(独自算出の注目度): 3.7814963048515153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, a novel deep learning framework is proposed for temporal
super-resolution simulation of blood vessel flows, in which a
high-temporal-resolution time-varying blood vessel flow simulation is generated
from a low-temporal-resolution flow simulation result. In our framework,
point-cloud is used to represent the complex blood vessel model,
resistance-time aided PointNet model is proposed for extracting the time-space
features of the time-varying flow field, and finally we can reconstruct the
high-accuracy and high-resolution flow field through the Decoder module. In
particular, the amplitude loss and the orientation loss of the velocity are
proposed from the vector characteristics of the velocity. And the combination
of these two metrics constitutes the final loss function for network training.
Several examples are given to illustrate the effective and efficiency of the
proposed framework for temporal super-resolution simulation of blood vessel
flows.
- Abstract(参考訳): 本稿では,低時間分解能流シミュレーション結果から高時間分解能時間変化型血管血流シミュレーションを発生させる,時相超解像シミュレーションのための新しいディープラーニングフレームワークを提案する。
本フレームワークでは, 複雑な血管モデルを表現するためにポイントクラウドを用い, 時間変動流れ場の時間空間特性を抽出するための抵抗時間支援ポイントネットモデルを提案し, 最終的にデコーダモジュールを通して高精度で高分解能な流れ場を再構築する。
特に,速度のベクトル特性から,速度の振幅損失と方向損失を提案する。
これら2つのメトリクスの組み合わせは、ネットワークトレーニングの最終損失関数を構成する。
血管流れの時間的超解像シミュレーションのための枠組みの有効性と効率を示すいくつかの例が提示されている。
関連論文リスト
- Super-Resolution works for coastal simulations [6.263499279406057]
高解像度のシミュレーションは、特に津波や暴風雨による洪水を予測するために、多くのプロセスの理解を深めるために必要である。
本稿では,高分解能数値解を効率的に学習するための超解法拡張のためのDeep Networkを提案する。
提案手法は,最先端の手法と比較して,高精細度で高速な計算が可能である。
論文 参考訳(メタデータ) (2024-08-29T14:16:13Z) - Vision-Informed Flow Image Super-Resolution with Quaternion Spatial
Modeling and Dynamic Flow Convolution [49.45309818782329]
フロー画像超解像(FISR)は、低分解能フロー画像から高分解能乱流速度場を復元することを目的としている。
既存のFISR法は主に自然画像パターンのフロー画像を処理する。
第一流れの視覚特性インフォームドFISRアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-29T06:48:16Z) - Fluid Simulation on Neural Flow Maps [23.5602305386658]
本稿では,フローマップの理論に基づく流体シミュレーションにより,暗黙的ニューラル表現の新たなパラダイムをブリッジする新しいシミュレーション手法であるニューラルフローマップを紹介する。
本研究は, 跳躍渦, 衝突渦, 渦再接続, 移動障害物からの渦発生, 密度差など, 様々な困難なシミュレーションシナリオにおいて, 神経流体シミュレーションの有効性を実証する。
論文 参考訳(メタデータ) (2023-12-22T12:13:19Z) - AccFlow: Backward Accumulation for Long-Range Optical Flow [70.4251045372285]
本稿では、長距離光フロー推定のためのAccFlowと呼ばれる新しいリカレントフレームワークを提案する。
従来の前方累積よりも後方累積の方が優れていることを示す。
長距離光流量推定におけるAccFlowの有効性を検証する実験
論文 参考訳(メタデータ) (2023-08-25T01:51:26Z) - Physics-informed Deep Super-resolution for Spatiotemporal Data [18.688475686901082]
ディープ・ラーニングは、粗い粒度のシミュレーションに基づいて科学的データを増やすのに使うことができる。
物理インフォームドラーニングにインスパイアされた、豊かで効率的な時間的超解像フレームワークを提案する。
その結果,提案手法の有効性と効率が,ベースラインアルゴリズムと比較して優れていることが示された。
論文 参考訳(メタデータ) (2022-08-02T13:57:35Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Real-time simulation of parameter-dependent fluid flows through deep
learning-based reduced order models [0.2538209532048866]
還元次数モデル (ROM) はパラメータ依存の流体力学問題を高速に近似する。
ディープラーニング(DL)ベースのROMは、非線形トライアル多様体と還元力学の両方を非侵襲的に学習することで、これらの制限をすべて克服する。
得られたPOD-DL-ROMは、シリンダーベンチマークの周囲の流れ、固定された剛性ブロックに付着した弾性ビームとラミナー非圧縮性フローとの流体構造相互作用、大脳動脈瘤内の血流のほぼリアルタイムに正確な結果をもたらすことが示されている。
論文 参考訳(メタデータ) (2021-06-10T13:07:33Z) - Multi-Temporal Convolutions for Human Action Recognition in Videos [83.43682368129072]
複数の解像度で抽出できる新しい時間・時間的畳み込みブロックを提案する。
提案するブロックは軽量で,任意の3D-CNNアーキテクチャに統合可能である。
論文 参考訳(メタデータ) (2020-11-08T10:40:26Z) - Recurrent convolutional neural network for the surrogate modeling of
subsurface flow simulation [0.0]
本稿では,数値フローシミュレーションの代理モデルとして,SegNetとConvLSTM層を組み合わせることを提案する。
その結果,シミュレーションの出力が時系列データである場合,SegNetに基づくサロゲートモデルの性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2020-10-08T09:34:48Z) - STaRFlow: A SpatioTemporal Recurrent Cell for Lightweight Multi-Frame
Optical Flow Estimation [64.99259320624148]
マルチフレーム光フロー推定のための軽量CNNアルゴリズムを提案する。
結果のSTaRFlowアルゴリズムは、MPI SintelとKitti2015で最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2020-07-10T17:01:34Z) - MeshfreeFlowNet: A Physics-Constrained Deep Continuous Space-Time
Super-Resolution Framework [58.49761896587656]
MeshfreeFlowNetは、低解像度入力から連続(グリッドフリー)80%ソリューションを生成するフレームワークである。
MeshfreeFlowNetは、(i)出力をすべての解像度でサンプリングし、(ii)任意のサイズの時間ドメイン上の固定サイズの入力をトレーニングすることを可能にする。
本稿では,MeshfreeFlowNetの大規模実装を提案する。
論文 参考訳(メタデータ) (2020-05-01T05:29:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。