論文の概要: VDL-Surrogate: A View-Dependent Latent-based Model for Parameter Space
Exploration of Ensemble Simulations
- arxiv url: http://arxiv.org/abs/2207.13091v2
- Date: Thu, 28 Jul 2022 01:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 11:53:39.999051
- Title: VDL-Surrogate: A View-Dependent Latent-based Model for Parameter Space
Exploration of Ensemble Simulations
- Title(参考訳): VDL-Surrogate:エンサンブルシミュレーションのパラメータ空間探索のためのビュー依存潜在モデル
- Authors: Neng Shi, Jiayi Xu, Hanqi Guo, Jonathan Woodring, Han-Wei Shen
- Abstract要約: VDL-Surrogateは、アンサンブルシミュレーションのパラメータ空間探索のためのビュー依存ニューラルネット-ラテント-サロゲートモデルである。
宇宙・海洋シミュレーションにおけるVDL-Surrogateの有効性と有効性を示す。
- 参考スコア(独自算出の注目度): 10.567347308301606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose VDL-Surrogate, a view-dependent neural-network-latent-based
surrogate model for parameter space exploration of ensemble simulations that
allows high-resolution visualizations and user-specified visual mappings.
Surrogate-enabled parameter space exploration allows domain scientists to
preview simulation results without having to run a large number of
computationally costly simulations. Limited by computational resources,
however, existing surrogate models may not produce previews with sufficient
resolution for visualization and analysis. To improve the efficient use of
computational resources and support high-resolution exploration, we perform ray
casting from different viewpoints to collect samples and produce compact latent
representations. This latent encoding process reduces the cost of surrogate
model training while maintaining the output quality. In the model training
stage, we select viewpoints to cover the whole viewing sphere and train
corresponding VDL-Surrogate models for the selected viewpoints. In the model
inference stage, we predict the latent representations at previously selected
viewpoints and decode the latent representations to data space. For any given
viewpoint, we make interpolations over decoded data at selected viewpoints and
generate visualizations with user-specified visual mappings. We show the
effectiveness and efficiency of VDL-Surrogate in cosmological and ocean
simulations with quantitative and qualitative evaluations. Source code is
publicly available at https://github.com/trainsn/VDL-Surrogate.
- Abstract(参考訳): VDL-Surrogateは、高精細な可視化とユーザ特定視覚マッピングを可能にするアンサンブルシミュレーションのパラメータ空間探索のためのビュー依存ニューラルネット-ラテント-サロゲートモデルである。
代理可能なパラメータ空間探索により、多くの計算コストのかかるシミュレーションを実行することなく、ドメイン科学者はシミュレーション結果をプレビューすることができる。
しかし、計算資源によって制限された既存のサロゲートモデルは、可視化と分析に十分な解像度のプレビューを生成できない可能性がある。
計算資源の効率的な利用と高分解能探索を支援するため,様々な視点からレイキャスティングを行い,サンプルを収集し,コンパクトな潜伏表現を生成する。
この潜在符号化プロセスは、出力品質を維持しながら、サロゲートモデルトレーニングのコストを削減します。
モデル学習段階では、視界全体をカバーする視点を選択し、選択された視点に対して対応するVDL-Surrogateモデルを訓練する。
モデル推論段階では、予め選択された視点で潜在表現を予測し、潜在表現をデータ空間にデコードする。
任意の視点において、選択した視点で復号データよりも補間を行い、ユーザ指定のビジュアルマッピングを用いた可視化を生成する。
本稿では,宇宙・海洋シミュレーションにおけるvdl-surrogateの有効性と有効性を示し,定量的・質的評価を行った。
ソースコードはhttps://github.com/trainsn/VDL-Surrogateで公開されている。
関連論文リスト
- $α$-TCVAE: On the relationship between Disentanglement and Diversity [21.811889512977924]
本稿では,新しい全相関(TC)下界を用いて最適化された変分オートエンコーダである$alpha$-TCVAEを紹介する。
本稿では,不整合表現がより優れた生成能力と多様性をもたらすという考えを支持する定量的分析について述べる。
以上の結果から,$alpha$-TCVAEはベースラインよりも不整合表現を一貫して学習し,より多様な観測結果を生成することが示された。
論文 参考訳(メタデータ) (2024-11-01T13:50:06Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - BEHAVIOR Vision Suite: Customizable Dataset Generation via Simulation [57.40024206484446]
我々は、コンピュータビジョンモデルの体系的評価のために、完全にカスタマイズされた合成データを生成するためのツールと資産のセットであるBEHAVIOR Vision Suite(BVS)を紹介する。
BVSはシーンレベルで多数の調整可能なパラメータをサポートする。
アプリケーションシナリオを3つ紹介する。
論文 参考訳(メタデータ) (2024-05-15T17:57:56Z) - Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - A Unified Generative Framework for Realistic Lidar Simulation in Autonomous Driving Systems [10.036860459686526]
Lidarは、Autonomous Driving Systemsの知覚センサーの中で広く使われているセンサーである。
深層生成モデルは、現実的な感覚データを合成するための有望な解決策として現れてきた。
本稿では,Lidarシミュレーションの忠実度を高めるための統一的な生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-25T21:55:00Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Conditional Generation of Synthetic Geospatial Images from Pixel-level
and Feature-level Inputs [0.0]
画素レベル条件 (PLC) と特徴レベル条件 (FLC) を同時に条件付きで合成する条件生成モデル VAE-Info-cGAN を提案する。
提案モデルでは,道路網の時間的表現のみを条件に,異なる地理的位置をまたいだ様々な形態のマクロアグリゲーションを高精度に生成することができる。
論文 参考訳(メタデータ) (2021-09-11T06:58:19Z) - VinVL: Revisiting Visual Representations in Vision-Language Models [96.39332942534368]
画像のオブジェクト中心表現を提供するための改良されたオブジェクト検出モデルを開発した。
新しい視覚機能は、すべての視覚言語(VL)タスクのパフォーマンスを大幅に改善する。
新しいオブジェクト検出モデルを公開します。
論文 参考訳(メタデータ) (2021-01-02T23:35:27Z) - VAE-Info-cGAN: Generating Synthetic Images by Combining Pixel-level and
Feature-level Geospatial Conditional Inputs [0.0]
画素レベル(PLC)と特徴レベル(FLC)を同時に条件付けした意味的リッチな画像を合成するための条件生成モデルを提案する。
GPSデータセットを用いた実験では,提案モデルが地理的に異なる場所にまたがる様々な形態のマクロアグリゲーションを正確に生成できることが示されている。
論文 参考訳(メタデータ) (2020-12-08T03:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。