論文の概要: Uncertainty-Aware Deep Neural Representations for Visual Analysis of Vector Field Data
- arxiv url: http://arxiv.org/abs/2407.16119v2
- Date: Sat, 10 Aug 2024 10:06:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 20:33:33.661460
- Title: Uncertainty-Aware Deep Neural Representations for Visual Analysis of Vector Field Data
- Title(参考訳): ベクトル場データの視覚解析のための不確実性を考慮した深部神経表現
- Authors: Atul Kumar, Siddharth Garg, Soumya Dutta,
- Abstract要約: 定常ベクトル場を効果的にモデル化するために,不確実性を考慮した暗黙的ニューラル表現を開発する。
いくつかのベクトルデータセットを用いて詳細な探索を行ったところ、不確実性を考慮したモデルがベクトル場の特徴の情報可視化結果を生成することが示唆された。
- 参考スコア(独自算出の注目度): 12.557846998225104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of Deep Neural Networks (DNNs) has recently resulted in their application to challenging scientific visualization tasks. While advanced DNNs demonstrate impressive generalization abilities, understanding factors like prediction quality, confidence, robustness, and uncertainty is crucial. These insights aid application scientists in making informed decisions. However, DNNs lack inherent mechanisms to measure prediction uncertainty, prompting the creation of distinct frameworks for constructing robust uncertainty-aware models tailored to various visualization tasks. In this work, we develop uncertainty-aware implicit neural representations to model steady-state vector fields effectively. We comprehensively evaluate the efficacy of two principled deep uncertainty estimation techniques: (1) Deep Ensemble and (2) Monte Carlo Dropout, aimed at enabling uncertainty-informed visual analysis of features within steady vector field data. Our detailed exploration using several vector data sets indicate that uncertainty-aware models generate informative visualization results of vector field features. Furthermore, incorporating prediction uncertainty improves the resilience and interpretability of our DNN model, rendering it applicable for the analysis of non-trivial vector field data sets.
- Abstract(参考訳): 近年,Deep Neural Networks (DNN) が普及し,科学的可視化タスクへの応用が進んでいる。
高度なDNNは優れた一般化能力を示しているが、予測品質、信頼性、堅牢性、不確実性などの理解要素は不可欠である。
これらの洞察は、アプリケーション科学者が情報的な決定を下すのに役立つ。
しかし、DNNには予測の不確実性を測定するための固有のメカニズムが欠如しており、様々な可視化タスクに適した堅牢な不確実性認識モデルを構築するための異なるフレームワークが作成される。
本研究では,定常ベクトル場を効果的にモデル化するために,不確実性を考慮した暗黙的ニューラル表現を開発する。
本研究では,(1)Deep Ensembleと(2)Monte Carlo Dropoutの2つの基本的不確実性推定手法の有効性を総合的に評価する。
いくつかのベクトルデータセットを用いて詳細な探索を行ったところ、不確実性を考慮したモデルがベクトル場の特徴の情報可視化結果を生成することが示唆された。
さらに,予測の不確実性を取り入れることで,DNNモデルのレジリエンスと解釈性が向上し,非自明なベクトル場データの解析に適用できる。
関連論文リスト
- Uncertainty-Informed Volume Visualization using Implicit Neural Representation [6.909370175721755]
本研究では、スカラーフィールドデータセットをモデル化するために、不確実性を考慮した暗黙的ニューラル表現を提案する。
本研究では,2つの基本的不確実性推定手法の有効性を評価する。
我々の研究は、実世界の科学的ボリュームデータセットを頑健に分析し視覚化するのに適している。
論文 参考訳(メタデータ) (2024-08-12T09:14:23Z) - Visual Analysis of Prediction Uncertainty in Neural Networks for Deep Image Synthesis [3.09988520562118]
予測に関わる品質、信頼性、堅牢性、不確実性を理解することが不可欠である。
これらの量の徹底的な理解は、アプリケーション科学者が情報的な決定を下すのに役立つ実用的な洞察を生み出します。
このコントリビューションは,DNNの予測の不確実性と感度を,様々な手法を用いて効率的に推定できることを示す。
論文 参考訳(メタデータ) (2024-05-22T20:01:31Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Uncertainty Quantification for Molecular Property Predictions with Graph Neural Architecture Search [2.711812013460678]
本稿では,分子特性予測のための自動不確実性定量化(UQ)手法であるAutoGNNUQを紹介する。
我々のアプローチでは、分散分解を用いてデータ(アラート)とモデル(エステミック)の不確実性を分離し、それらを減らすための貴重な洞察を提供する。
AutoGNNUQは、正確な不確実性定量化が意思決定に不可欠である薬物発見や材料科学などの領域で広く適用可能である。
論文 参考訳(メタデータ) (2023-07-19T20:03:42Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Confidence Aware Neural Networks for Skin Cancer Detection [12.300911283520719]
画像からの皮膚癌検出における不確かさを定量化する3つの方法を提案する。
その結果, 予測不確実性推定手法は, リスクや誤予測を予測できることがわかった。
また、アンサンブルアプローチは推論によって不確実性を捉える上でより信頼性が高いことを示す。
論文 参考訳(メタデータ) (2021-07-19T19:21:57Z) - A Simple Framework to Quantify Different Types of Uncertainty in Deep
Neural Networks for Image Classification [0.0]
モデルの予測の不確実性を定量化することは、AIシステムの安全性を高めるために重要である。
これは、自動運転車の制御、医療画像分析、財務推定、法的分野など、エラーのコストが高いアプリケーションにとって極めて重要である。
本稿では,画像分類の課題に対して,Deep Neural Networksにおいて既知の3種類の不確実性を捕捉し,定量化するための完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-17T15:36:42Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。