論文の概要: FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution
- arxiv url: http://arxiv.org/abs/2308.12508v2
- Date: Sun, 27 Aug 2023 02:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 10:59:26.463976
- Title: FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution
- Title(参考訳): FFEINR:時空間超解像のためのフロー特徴強調インシシットニューラル表現法
- Authors: Chenyue Jiao, Chongke Bi and Lu Yang
- Abstract要約: 本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
- 参考スコア(独自算出の注目度): 4.577685231084759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale numerical simulations are capable of generating data up to
terabytes or even petabytes. As a promising method of data reduction,
super-resolution (SR) has been widely studied in the scientific visualization
community. However, most of them are based on deep convolutional neural
networks (CNNs) or generative adversarial networks (GANs) and the scale factor
needs to be determined before constructing the network. As a result, a single
training session only supports a fixed factor and has poor generalization
ability. To address these problems, this paper proposes a Feature-Enhanced
Implicit Neural Representation (FFEINR) for spatio-temporal super-resolution of
flow field data. It can take full advantage of the implicit neural
representation in terms of model structure and sampling resolution. The neural
representation is based on a fully connected network with periodic activation
functions, which enables us to obtain lightweight models. The learned
continuous representation can decode the low-resolution flow field input data
to arbitrary spatial and temporal resolutions, allowing for flexible
upsampling. The training process of FFEINR is facilitated by introducing
feature enhancements for the input layer, which complements the contextual
information of the flow field. To demonstrate the effectiveness of the proposed
method, a series of experiments are conducted on different datasets by setting
different hyperparameters. The results show that FFEINR achieves significantly
better results than the trilinear interpolation method.
- Abstract(参考訳): 大規模な数値シミュレーションはテラバイトやペタバイトまでデータを生成することができる。
データ削減の有望な方法として、超解像(SR)は科学的な可視化コミュニティで広く研究されている。
しかし、そのほとんどは深層畳み込みニューラルネットワーク(CNN)やGAN(Generative Adversarial Network)に基づいており、ネットワークを構築する前にスケール係数を決定する必要がある。
結果として、単一のトレーニングセッションは固定要素のみをサポートし、一般化能力が劣る。
これらの問題に対処するために,フローフィールドデータの時空間超解像のための特徴強調インプリシトニューラルネットワーク表現(FFEINR)を提案する。
モデル構造とサンプリング解像度の観点から、暗黙的な神経表現を最大限に活用することができる。
ニューラル表現は、周期的活性化関数を備えた完全連結ネットワークに基づいており、軽量なモデルを得ることができる。
学習された連続表現は、低解像度フローフィールド入力データを任意の空間的および時間的解像度にデコードし、柔軟なアップサンプリングを可能にする。
FFEINRのトレーニングプロセスは、フローフィールドのコンテキスト情報を補完する入力層の特徴強化を導入することで容易になる。
提案手法の有効性を示すために,複数のハイパーパラメータを設定し,異なるデータセット上で一連の実験を行った。
その結果,FFEINRはトリリニア補間法よりも有意に良好な結果が得られた。
関連論文リスト
- Flow reconstruction in time-varying geometries using graph neural networks [1.0485739694839669]
このモデルは、非常にスパースな入力を処理するための前処理ステップとして、特徴伝搬アルゴリズムを組み込んでいる。
バリデーションマスクとしてバイナリインジケータを導入し、元のデータポイントと伝播データポイントを区別する。
このモデルは、技術的に関係のある運転条件下で、エンジンの直接数値シミュレーション(DNS)のユニークなデータセットに基づいて訓練される。
論文 参考訳(メタデータ) (2024-11-13T16:49:56Z) - How to Train Neural Field Representations: A Comprehensive Study and Benchmark [29.725680049946032]
本稿では、並列化を利用してニューラルネットワークのデータセットを高速に最適化するJAXベースのライブラリを提案する。
下流タスクに対するNeFの適合性に対する異なるハイパーパラメータの影響について検討する。
提案するライブラリと分析に基づいて、一般的な視覚データセットのニューラルネットワーク変種からなるベンチマークであるNeural Field Arenaを提案する。
論文 参考訳(メタデータ) (2023-12-16T20:10:23Z) - Accelerating Scalable Graph Neural Network Inference with Node-Adaptive
Propagation [80.227864832092]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで例外的な効果を発揮している。
大規模グラフの重大化は,GNNによるリアルタイム推論において重要な課題となる。
本稿では,オンライン伝搬フレームワークと2つの新しいノード適応伝搬手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T05:03:00Z) - Distributed Neural Representation for Reactive in situ Visualization [23.80657290203846]
Inlicit Neural representations (INR) は、大規模ボリュームデータを圧縮するための強力なツールとして登場した。
分散ニューラル表現を開発し,それをその場での可視化に最適化する。
我々の技術はプロセス間のデータ交換を排除し、最先端の圧縮速度、品質、比率を達成する。
論文 参考訳(メタデータ) (2023-03-28T03:55:47Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - ChiNet: Deep Recurrent Convolutional Learning for Multimodal Spacecraft
Pose Estimation [3.964047152162558]
本稿では,ランデブーシーケンスからの時間情報を組み込んで,宇宙船の相対的な姿勢を推定する革新的な深層学習パイプラインを提案する。
畳み込みニューラルネットワーク(CNN)バックボーンによって抽出された特徴の処理のために、データのシーケンスをモデル化する上で、LSTM(Long Short-term memory)ユニットのパフォーマンスを活用する。
3つの異なるトレーニング戦略が組み合わさって、特徴学習を容易にし、回帰によるエンドツーエンドのポーズ推定を改善する。
論文 参考訳(メタデータ) (2021-08-23T16:48:58Z) - Motor Imagery Classification based on CNN-GRU Network with
Spatio-Temporal Feature Representation [22.488536453952964]
近年、脳波(EEG)信号に様々なディープニューラルネットワークが応用されている。
脳波は非侵襲的に取得できる脳信号であり、時間分解能が高い。
脳波信号は高次元の分類特徴空間を持つため,性能向上には適切な特徴抽出法が必要である。
論文 参考訳(メタデータ) (2021-07-15T01:05:38Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。