論文の概要: Scene Uncertainty and the Wellington Posterior of Deterministic Image
Classifiers
- arxiv url: http://arxiv.org/abs/2106.13870v2
- Date: Fri, 24 Mar 2023 23:36:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 04:09:45.297949
- Title: Scene Uncertainty and the Wellington Posterior of Deterministic Image
Classifiers
- Title(参考訳): 決定論的画像分類器のシーン不確かさとウェリントン後方
- Authors: Stephanie Tsuei, Aditya Golatkar, Stefano Soatto
- Abstract要約: Wellington Posteriorは、同じシーンで生成された可能性のあるデータに応答して得られるであろう結果の分布である。
We we explore the use of data augmentation, dropout, ensembling, single-view reconstruction and model linearization to compute a Wellington Posterior。
他にも、生成逆数ネットワーク、ニューラルレイディアンスフィールド、条件付き事前ネットワークなどの条件付き生成モデルの使用がある。
- 参考スコア(独自算出の注目度): 68.9065881270224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method to estimate the uncertainty of the outcome of an image
classifier on a given input datum. Deep neural networks commonly used for image
classification are deterministic maps from an input image to an output class.
As such, their outcome on a given datum involves no uncertainty, so we must
specify what variability we are referring to when defining, measuring and
interpreting uncertainty, and attributing "confidence" to the outcome. To this
end, we introduce the Wellington Posterior, which is the distribution of
outcomes that would have been obtained in response to data that could have been
generated by the same scene that produced the given image. Since there are
infinitely many scenes that could have generated any given image, the
Wellington Posterior involves inductive transfer from scenes other than the one
portrayed. We explore the use of data augmentation, dropout, ensembling,
single-view reconstruction, and model linearization to compute a Wellington
Posterior. Additional methods include the use of conditional generative models
such as generative adversarial networks, neural radiance fields, and
conditional prior networks. We test these methods against the empirical
posterior obtained by performing inference on multiple images of the same
underlying scene. These developments are only a small step towards assessing
the reliability of deep network classifiers in a manner that is compatible with
safety-critical applications and human interpretation.
- Abstract(参考訳): 本研究では,画像分類器の出力結果の不確実性を評価する手法を提案する。
画像分類によく使用されるディープニューラルネットワークは、入力画像から出力クラスへの決定論的マップである。
そのため、不確実性を定義し、測定し、解釈し、結果に「自信」を帰結させる際に、どのような変動性について言及しているかを明確にする必要がある。
この目的のために、Wellington Posteriorは、与えられた画像を生成する同じシーンから生成される可能性のあるデータに応答して得られる結果の分布である。
任意の画像を生成できるシーンは無限に多いため、ウェリントン・ポストミラーは描かれたもの以外のシーンから誘導的に移動する。
本研究では,データ拡張,ドロップアウト,センシング,単一視点再構成,モデル線形化によるウェリントン後方の計算について検討する。
その他の方法は、生成逆数ネットワーク、神経放射場、条件付き事前ネットワークなどの条件付き生成モデルの使用を含む。
提案手法は,同じシーンの複数の画像に対して推論を行うことにより得られた経験的後部に対して検証する。
これらの開発は、安全クリティカルなアプリケーションや人間の解釈と互換性のある方法でディープネットワーク分類器の信頼性を評価するための小さな一歩にすぎない。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - Generator Born from Classifier [66.56001246096002]
データサンプルに頼ることなく、イメージジェネレータを再構築することを目指している。
本稿では,ネットワークパラメータの収束条件を満たすために,ジェネレータを訓練する新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-05T03:41:17Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Adversarial Sampling for Fairness Testing in Deep Neural Network [0.0]
与えられたデータセット内のさまざまなクラスの画像にわたるディープニューラルネットワークモデルの予測において、公正性をテストするための逆サンプリング。
我々は、元の画像でニューラルネットワークモデルを訓練し、摂動または攻撃された画像でモデルをトレーニングすることはなかった。
モデルに逆方向サンプリングを施すと、逆方向サンプルが属する画像のもともとのカテゴリ/クラスを予測することができた。
論文 参考訳(メタデータ) (2023-03-06T03:55:37Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - Just Noticeable Difference for Machine Perception and Generation of
Regularized Adversarial Images with Minimal Perturbation [8.920717493647121]
人間の知覚のジャスト通知差(JND)の概念に触発された機械知覚の尺度を紹介します。
本稿では,機械学習モデルが偽ラベルを出力することで画像の変化を検出するまで,画像を付加雑音で反復的に歪曲する逆画像生成アルゴリズムを提案する。
CIFAR10、ImageNet、MS COCOデータセット上で、アルゴリズムが生成する対向画像の定性的および定量的評価を行います。
論文 参考訳(メタデータ) (2021-02-16T11:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。