論文の概要: Uncertainty in latent representations of variational autoencoders optimized for visual tasks
- arxiv url: http://arxiv.org/abs/2404.15390v1
- Date: Tue, 23 Apr 2024 16:26:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-25 15:32:54.020231
- Title: Uncertainty in latent representations of variational autoencoders optimized for visual tasks
- Title(参考訳): 視覚タスクに最適化された変分オートエンコーダの潜時表現の不確かさ
- Authors: Josefina Catoni, Enzo Ferrante, Diego H. Milone, Rodrigo Echeveste,
- Abstract要約: 可変オートエンコーダ(VAE)の潜時表現における不確実性表現について検討する。
本稿では、EA-VAEと呼ばれる新しい手法が、これらの問題をいかに解決するかを示す。
EA-VAEは、コンピュータ神経科学における知覚のモデルとコンピュータビジョンにおける推論ツールの両方として有用である。
- 参考スコア(独自算出の注目度): 4.919240908498475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods are increasingly becoming instrumental as modeling tools in computational neuroscience, employing optimality principles to build bridges between neural responses and perception or behavior. Developing models that adequately represent uncertainty is however challenging for deep learning methods, which often suffer from calibration problems. This constitutes a difficulty in particular when modeling cortical circuits in terms of Bayesian inference, beyond single point estimates such as the posterior mean or the maximum a posteriori. In this work we systematically studied uncertainty representations in latent representations of variational auto-encoders (VAEs), both in a perceptual task from natural images and in two other canonical tasks of computer vision, finding a poor alignment between uncertainty and informativeness or ambiguities in the images. We next showed how a novel approach which we call explaining-away variational auto-encoders (EA-VAEs), fixes these issues, producing meaningful reports of uncertainty in a variety of scenarios, including interpolation, image corruption, and even out-of-distribution detection. We show EA-VAEs may prove useful both as models of perception in computational neuroscience and as inference tools in computer vision.
- Abstract(参考訳): 深層学習の手法は、神経科学のモデリングツールとして、神経反応と知覚や行動の間の橋渡しに最適な原理を採用するようになってきています。
しかし、不確かさを適切に表現するモデルを開発することは、しばしば校正問題に悩まされるディープラーニング手法にとって困難である。
これは特に、後進平均や最大 a アフターイのような単一点推定を越えて、ベイズ推定の観点から皮質回路をモデル化する際、難しい。
本研究では,変分オートエンコーダ(VAE)の潜時表現における不確実性表現を,自然画像からの知覚的タスクとコンピュータビジョンの他の2つの標準的なタスクの両方において系統的に研究し,不確実性と情報性,曖昧性の両立を見いだした。
次に、我々がEA-VAEと呼ばれる新しい手法でこれらの問題を解決し、補間、画像の破損、さらには分布外検出など、様々なシナリオにおける不確実性についての有意義な報告を生み出す方法を示した。
EA-VAEは計算神経科学の知覚モデルやコンピュータビジョンの推論ツールとして有用であることを示す。
関連論文リスト
- Analyzing and Explaining Image Classifiers via Diffusion Guidance [39.85203645176423]
ディープラーニングは、ImageNetのような複雑な画像分類タスク、予期せぬ障害モード、例えばスプリアス機能などに大きな進歩をもたらした。
本稿では、ガイド画像生成のためのフレームワークを用いて、分類器由来の目的を最適化した画像を生成することにより、これらの問題に対処する。
視覚的対実的説明(VCE)による画像分類器の動作と決定、分類器が最大に一致しない画像の解析による系統的誤りの検出、潜在的な刺激的特徴の検証のためのニューロンの可視化について分析する。
論文 参考訳(メタデータ) (2023-11-29T17:35:29Z) - Variational Voxel Pseudo Image Tracking [127.46919555100543]
不確実性推定は、ロボット工学や自律運転といった重要な問題にとって重要なタスクである。
本稿では,3次元物体追跡のためのVoxel Pseudo Image Tracking (VPIT) の変分ニューラルネットワークによるバージョンを提案する。
論文 参考訳(メタデータ) (2023-02-12T13:34:50Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Perception Visualization: Seeing Through the Eyes of a DNN [5.9557391359320375]
我々は、Grad-CAMのような現在の説明方法と本質的に異なる、新しい説明形式を開発する。
知覚可視化は、DNNが入力画像で知覚するものの視覚的表現を提供する。
ユーザスタディの結果から,認識の可視化が可能になった場合,人間がシステムの判断をよりよく理解し,予測できることが示される。
論文 参考訳(メタデータ) (2022-04-21T07:18:55Z) - Hybrid Predictive Coding: Inferring, Fast and Slow [62.997667081978825]
本稿では,反復型と償却型の両方を原則的に組み合わせたハイブリッド予測符号化ネットワークを提案する。
我々は,本モデルが本質的に不確実性に敏感であり,最小計算費用を用いて正確な信念を得るためにバランスを適応的にバランスさせることを実証した。
論文 参考訳(メタデータ) (2022-04-05T12:52:45Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Deep Variational Network Toward Blind Image Restoration [55.33102369856991]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - A Heteroscedastic Uncertainty Model for Decoupling Sources of MRI Image
Quality [3.5480752735999417]
セグメンテーションなどの下流分析を成功させるためには、医用画像の品質管理(QC)が不可欠である。
本研究では,不確実性を推定する確率的ネットワークをヘテロセダスティックノイズモデルにより構築し,そのプロセスを自動化することを目的とする。
シミュレーションされた人工物を用いて訓練したモデルは、実世界の画像に不確実性を示す情報的尺度を提供するとともに、人間のレーダが特定した問題画像に対する不確実性予測を検証する。
論文 参考訳(メタデータ) (2020-01-31T16:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。