論文の概要: ScatterUQ: Interactive Uncertainty Visualizations for Multiclass Deep
Learning Problems
- arxiv url: http://arxiv.org/abs/2308.04588v1
- Date: Tue, 8 Aug 2023 21:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 16:01:35.160594
- Title: ScatterUQ: Interactive Uncertainty Visualizations for Multiclass Deep
Learning Problems
- Title(参考訳): ScatterUQ:マルチクラスディープラーニング問題に対する対話型不確実性可視化
- Authors: Harry Li, Steven Jorgensen, John Holodnak and Allan Wollaber
- Abstract要約: ScatterUQは、ユーザがコンテキスト駆動の不確実性設定におけるモデルパフォーマンスをよりよく理解できるように、ターゲットの可視化を提供するインタラクティブシステムである。
本稿では,Fashion-MNISTを訓練した距離認識ニューラルネットワーク上でのマルチクラス画像分類におけるモデル不確実性を説明するために,ScatterUQの有効性を示す。
以上の結果から,ScatterUQシステムは任意のマルチクラスデータセットにスケールすべきであることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, uncertainty-aware deep learning methods for multiclass labeling
problems have been developed that provide calibrated class prediction
probabilities and out-of-distribution (OOD) indicators, letting machine
learning (ML) consumers and engineers gauge a model's confidence in its
predictions. However, this extra neural network prediction information is
challenging to scalably convey visually for arbitrary data sources under
multiple uncertainty contexts. To address these challenges, we present
ScatterUQ, an interactive system that provides targeted visualizations to allow
users to better understand model performance in context-driven uncertainty
settings. ScatterUQ leverages recent advances in distance-aware neural
networks, together with dimensionality reduction techniques, to construct
robust, 2-D scatter plots explaining why a model predicts a test example to be
(1) in-distribution and of a particular class, (2) in-distribution but unsure
of the class, and (3) out-of-distribution. ML consumers and engineers can
visually compare the salient features of test samples with training examples
through the use of a ``hover callback'' to understand model uncertainty
performance and decide follow up courses of action. We demonstrate the
effectiveness of ScatterUQ to explain model uncertainty for a multiclass image
classification on a distance-aware neural network trained on Fashion-MNIST and
tested on Fashion-MNIST (in distribution) and MNIST digits (out of
distribution), as well as a deep learning model for a cyber dataset. We
quantitatively evaluate dimensionality reduction techniques to optimize our
contextually driven UQ visualizations. Our results indicate that the ScatterUQ
system should scale to arbitrary, multiclass datasets. Our code is available at
https://github.com/mit-ll-responsible-ai/equine-webapp
- Abstract(参考訳): 近年,マルチクラスラベリング問題に対する不確実性を考慮したディープラーニング手法が開発され,クラス予測確率の校正と分散(ood)指標を提供し,機械学習(ml)の消費者とエンジニアがモデルの予測に対する信頼度を評価する。
しかし、この余分なニューラルネットワーク予測情報は、複数の不確実性条件下で任意のデータソースに対して視覚的に伝達することが困難である。
これらの課題に対処するために、ユーザがコンテキスト駆動の不確実性設定におけるモデルパフォーマンスをよりよく理解できるように、ターゲット視覚化を提供するインタラクティブシステムであるScatterUQを提案する。
ScatterUQは、距離対応ニューラルネットワークの最近の進歩を活用し、次元の縮小技術とともに、モデルがテスト例を(1)分布内および特定のクラス、(2)分布外、(3)分布外を予測した理由を説明する頑健な2次元散乱プロットを構築する。
mlのコンシューマとエンジニアは、モデル不確実性のパフォーマンスを理解し、アクションのフォローアップコースを決定するために``hoverコールバック'を使用して、テストサンプルの突出した特徴をトレーニング例と比較することができる。
我々は、Fashion-MNISTで訓練され、Fashion-MNIST(分布中)およびMNIST(分布外)でテストされた距離認識ニューラルネットワーク上で、マルチクラス画像分類のためのモデル不確実性を説明するために、ScatterUQの有効性を実証する。
文脈駆動型UQ可視化を最適化するために,次元削減手法を定量的に評価する。
以上の結果から,ScatterUQシステムは任意のマルチクラスデータセットにスケールすることが示唆された。
私たちのコードはhttps://github.com/mit-ll-responsible-ai/equine-webappで利用可能です。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Blending gradient boosted trees and neural networks for point and
probabilistic forecasting of hierarchical time series [0.0]
本稿では、勾配木やニューラルネットワークファミリーに属する機械学習モデルのブレンディング手法について述べる。
これらの原則は、最近のM5コンペティションにおいて、正確性と不確実性の両方のトラックでうまく適用された。
論文 参考訳(メタデータ) (2023-10-19T09:42:02Z) - Probabilistic MIMO U-Net: Efficient and Accurate Uncertainty Estimation
for Pixel-wise Regression [1.4528189330418977]
機械学習における不確実性推定は、予測モデルの信頼性と解釈可能性を高めるための最重要課題である。
画素ワイド回帰タスクに対するMIMO(Multiple-Input Multiple-Output)フレームワークの適応について述べる。
論文 参考訳(メタデータ) (2023-08-14T22:08:28Z) - Evaluation of machine learning architectures on the quantification of
epistemic and aleatoric uncertainties in complex dynamical systems [0.0]
不確実量化(英: Uncertainty Quantification、UQ)は、モデル誤差の自己評価値である。
ガウス過程とファミリーUQ強化ニューラルネットワークの両方を含む機械学習技術について検討する。
検証データ上の正規化残差の分布と推定不確かさの分布の2つの指標を用いて,UQ精度(モデル精度とは異なる)を評価する。
論文 参考訳(メタデータ) (2023-06-27T02:35:25Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Characterizing and Understanding the Behavior of Quantized Models for
Reliable Deployment [32.01355605506855]
量子化対応トレーニングは、標準、逆数、ミックスアップトレーニングよりも安定したモデルを生成することができる。
診断は、しばしばトップ1とトップ2の出力確率に近づき、$Margin$は、相違点を区別する他の不確実性指標よりも優れた指標である。
我々は、量子化されたモデルをさらに研究するための新しいベンチマークとして、コードとモデルをオープンソース化した。
論文 参考訳(メタデータ) (2022-04-08T11:19:16Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。