論文の概要: Visual Analysis of Prediction Uncertainty in Neural Networks for Deep Image Synthesis
- arxiv url: http://arxiv.org/abs/2406.18545v1
- Date: Wed, 22 May 2024 20:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 06:12:00.600450
- Title: Visual Analysis of Prediction Uncertainty in Neural Networks for Deep Image Synthesis
- Title(参考訳): 深部画像合成のためのニューラルネットワークにおける予測不確かさの可視化解析
- Authors: Soumya Dutta, Faheem Nizar, Ahmad Amaan, Ayan Acharya,
- Abstract要約: 予測に関わる品質、信頼性、堅牢性、不確実性を理解することが不可欠である。
これらの量の徹底的な理解は、アプリケーション科学者が情報的な決定を下すのに役立つ実用的な洞察を生み出します。
このコントリビューションは,DNNの予測の不確実性と感度を,様々な手法を用いて効率的に推定できることを示す。
- 参考スコア(独自算出の注目度): 3.09988520562118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ubiquitous applications of Deep neural networks (DNNs) in different artificial intelligence systems have led to their adoption in solving challenging visualization problems in recent years. While sophisticated DNNs offer an impressive generalization, it is imperative to comprehend the quality, confidence, robustness, and uncertainty associated with their prediction. A thorough understanding of these quantities produces actionable insights that help application scientists make informed decisions. Unfortunately, the intrinsic design principles of the DNNs cannot beget prediction uncertainty, necessitating separate formulations for robust uncertainty-aware models for diverse visualization applications. To that end, this contribution demonstrates how the prediction uncertainty and sensitivity of DNNs can be estimated efficiently using various methods and then interactively compared and contrasted for deep image synthesis tasks. Our inspection suggests that uncertainty-aware deep visualization models generate illustrations of informative and superior quality and diversity. Furthermore, prediction uncertainty improves the robustness and interpretability of deep visualization models, making them practical and convenient for various scientific domains that thrive on visual analyses.
- Abstract(参考訳): 異なる人工知能システムにおけるディープニューラルネットワーク(DNN)のユビキタスな応用は、近年の可視化問題の解決に成功している。
洗練されたDNNは印象的な一般化を提供するが、その予測に関連する品質、信頼性、堅牢性、不確実性を理解することは必須である。
これらの量の徹底的な理解は、アプリケーション科学者が情報的な決定を下すのに役立つ実用的な洞察を生み出します。
残念なことに、DNNの本質的な設計原則は予測の不確実性を損なうことはなく、多様な可視化アプリケーションのための堅牢な不確実性認識モデルのための別々の定式化を必要とする。
この結果から,DNNの予測の不確かさと感度を様々な手法を用いて効率的に推定し,深層画像合成タスクに対して対話的に比較・比較できることを示す。
検査の結果,不確実性を考慮した深層可視化モデルにより,情報的かつ優れた品質と多様性の図面が生成されることが示唆された。
さらに、予測の不確実性は、深い可視化モデルの堅牢性と解釈可能性を改善し、視覚分析に長けた様々な科学的領域に対して実用的で便利なものとなる。
関連論文リスト
- Uncertainty-Informed Volume Visualization using Implicit Neural Representation [6.909370175721755]
本研究では、スカラーフィールドデータセットをモデル化するために、不確実性を考慮した暗黙的ニューラル表現を提案する。
本研究では,2つの基本的不確実性推定手法の有効性を評価する。
我々の研究は、実世界の科学的ボリュームデータセットを頑健に分析し視覚化するのに適している。
論文 参考訳(メタデータ) (2024-08-12T09:14:23Z) - Uncertainty-Aware Deep Neural Representations for Visual Analysis of Vector Field Data [12.557846998225104]
定常ベクトル場を効果的にモデル化するために,不確実性を考慮した暗黙的ニューラル表現を開発する。
いくつかのベクトルデータセットを用いて詳細な探索を行ったところ、不確実性を考慮したモデルがベクトル場の特徴の情報可視化結果を生成することが示唆された。
論文 参考訳(メタデータ) (2024-07-23T01:59:58Z) - Uncertainty in latent representations of variational autoencoders optimized for visual tasks [4.919240908498475]
可変オートエンコーダ(VAE)の潜時表現における不確実性表現について検討する。
本稿では、EA-VAEと呼ばれる新しい手法が、これらの問題をいかに解決するかを示す。
EA-VAEは、コンピュータ神経科学における知覚のモデルとコンピュータビジョンにおける推論ツールの両方として有用である。
論文 参考訳(メタデータ) (2024-04-23T16:26:29Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Perception Visualization: Seeing Through the Eyes of a DNN [5.9557391359320375]
我々は、Grad-CAMのような現在の説明方法と本質的に異なる、新しい説明形式を開発する。
知覚可視化は、DNNが入力画像で知覚するものの視覚的表現を提供する。
ユーザスタディの結果から,認識の可視化が可能になった場合,人間がシステムの判断をよりよく理解し,予測できることが示される。
論文 参考訳(メタデータ) (2022-04-21T07:18:55Z) - Accurate and Reliable Forecasting using Stochastic Differential
Equations [48.21369419647511]
ディープラーニングモデルにとって、現実世界の環境に浸透する不確実性を適切に特徴付けることは、非常に困難である。
本論文では,HNNの予測平均と分散の相互作用を特徴づけるSDE-HNNを開発した。
本手法は,予測性能と不確実性定量化の両方の観点から,最先端のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-03-28T04:18:11Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Meaningful uncertainties from deep neural network surrogates of
large-scale numerical simulations [34.03414786863526]
ディープニューラルネットワーク(DNN)は、高精度な代理モデルとして機能する。
このような比較を意味づけるためには、予測の不確実性推定が不可欠である。
論文 参考訳(メタデータ) (2020-10-26T17:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。