論文の概要: Distributed Neural Representation for Reactive in situ Visualization
- arxiv url: http://arxiv.org/abs/2304.10516v1
- Date: Tue, 28 Mar 2023 03:55:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 03:59:40.894643
- Title: Distributed Neural Representation for Reactive in situ Visualization
- Title(参考訳): リアクティブIn situ可視化のための分散ニューラル表現
- Authors: Qi Wu, Joseph A. Insley, Victor A. Mateevitsi, Silvio Rizzi, Michael
E. Papka, Kwan-Liu Ma
- Abstract要約: In situ Visualization and steering of computer modeling はリアクティブプログラミングを用いて効果的に実現できる。
本研究では,分散ボリュームデータに対する暗黙的なニューラル表現を開発し,DIVAリアクティブプログラミングシステムに組み込む。
この実装により,従来よりも100倍のキャパシティを持つその場時間キャッシングシステムを構築することができる。
- 参考スコア(独自算出の注目度): 27.0101469750062
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In situ visualization and steering of computational modeling can be
effectively achieved using reactive programming, which leverages temporal
abstraction and data caching mechanisms to create dynamic workflows. However,
implementing a temporal cache for large-scale simulations can be challenging.
Implicit neural networks have proven effective in compressing large volume
data. However, their application to distributed data has yet to be fully
explored. In this work, we develop an implicit neural representation for
distributed volume data and incorporate it into the DIVA reactive programming
system. This implementation enables us to build an in situ temporal caching
system with a capacity 100 times larger than previously achieved. We integrate
our implementation into the Ascent infrastructure and evaluate its performance
using real-world simulations.
- Abstract(参考訳): 動的ワークフローを作成するために時間的抽象化とデータキャッシュ機構を活用するリアクティブプログラミングを使うことで、計算モデリングのその場での可視化とステアリングを効果的に実現できる。
しかし,大規模シミュレーションのためのテンポラリキャッシュの実装は困難である。
暗黙のニューラルネットワークは大量のデータを圧縮するのに有効であることが証明されている。
しかし、彼らの分散データへの応用はまだ完全には研究されていない。
本研究では,分散ボリュームデータに対する暗黙的なニューラル表現を開発し,DIVAリアクティブプログラミングシステムに組み込む。
この実装により,従来よりも100倍のキャパシティを持つその場時間キャッシュシステムを構築することができる。
実装をAscentインフラストラクチャに統合し,実世界のシミュレーションによる性能評価を行う。
関連論文リスト
- FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - FoVolNet: Fast Volume Rendering using Foveated Deep Neural Networks [33.489890950757975]
FoVolNetはボリュームデータ可視化の性能を大幅に向上させる手法である。
我々は、焦点付近のボリュームを疎結合にサンプリングし、ディープニューラルネットワークを用いてフルフレームを再構築する、費用対効果の高いフェーベレートレンダリングパイプラインを開発した。
論文 参考訳(メタデータ) (2022-09-20T19:48:56Z) - Scalable Spatiotemporal Graph Neural Networks [14.415967477487692]
グラフニューラルネットワーク(GNN)は、しばしば予測アーキテクチャのコアコンポーネントである。
ほとんどの時間前GNNでは、計算複雑性はグラフ内のリンクの回数のシーケンスの長さの2乗係数までスケールする。
本稿では,時間的・空間的両方のダイナミックスを効率的に符号化するスケーラブルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-14T09:47:38Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z) - Phase Transition Adaptation [14.034816857287044]
そこで本研究では,位相遷移適応と呼ばれる局所教師なし学習機構であるオリジナルアプローチの拡張を提案する。
提案手法が複数のデータセットに対して一貫して目的を達成できることを実験的に示す。
論文 参考訳(メタデータ) (2021-04-20T17:18:34Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Inferring, Predicting, and Denoising Causal Wave Dynamics [3.9407250051441403]
DISTANA(Distributed Artificial Neural Network Architecture)は、グラフ畳み込みニューラルネットワークである。
DISTANAは、再帰パターンが観測されるので、データストリームを飾るのに非常に適していることを示す。
安定かつ正確なクローズドループ予測を数百の時間ステップで生成する。
論文 参考訳(メタデータ) (2020-09-19T08:33:53Z) - Real-Time Regression with Dividing Local Gaussian Processes [62.01822866877782]
局所ガウス過程は、ガウス過程の回帰に基づく新しい、計算効率の良いモデリング手法である。
入力空間の反復的データ駆動分割により、実際にはトレーニングポイントの総数において、サブ線形計算複雑性が達成される。
実世界のデータセットに対する数値的な評価は、予測と更新の速度だけでなく、精度の点で他の最先端手法よりも有利であることを示している。
論文 参考訳(メタデータ) (2020-06-16T18:43:31Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。