論文の概要: I Find Your Lack of Uncertainty in Computer Vision Disturbing
- arxiv url: http://arxiv.org/abs/2104.08188v1
- Date: Fri, 16 Apr 2021 15:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:32:23.667491
- Title: I Find Your Lack of Uncertainty in Computer Vision Disturbing
- Title(参考訳): コンピュータビジョンの混乱で不確かさの欠如が判明
- Authors: Matias Valdenegro-Toro
- Abstract要約: 文献のメタ分析を行い、ほとんどのコンピュータビジョンアプリケーションは適切な不確実性定量化を使用していないことを示す。
適切な不確実性の定量化なしにモデルを使用することの結果を説明し、コミュニティが使用するモデルのバージョンを採用する動機付けます。
我々は、コンピュータビジョンアプリケーションおよび推奨事項の不確実性を推定するための課題の要約で論文を閉じます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are used for many real world applications, but often they
have problems estimating their own confidence. This is particularly problematic
for computer vision applications aimed at making high stakes decisions with
humans and their lives. In this paper we make a meta-analysis of the
literature, showing that most if not all computer vision applications do not
use proper epistemic uncertainty quantification, which means that these models
ignore their own limitations. We describe the consequences of using models
without proper uncertainty quantification, and motivate the community to adopt
versions of the models they use that have proper calibrated epistemic
uncertainty, in order to enable out of distribution detection. We close the
paper with a summary of challenges on estimating uncertainty for computer
vision applications and recommendations.
- Abstract(参考訳): ニューラルネットワークは多くの現実世界のアプリケーションで使われているが、しばしば彼ら自身の自信を推定するのに問題がある。
これは、人間とその生活で高い利害関係を決定することを目的としたコンピュータビジョンアプリケーションにとって特に問題となる。
本稿では,すべてのコンピュータビジョンアプリケーションが適切な認識的不確実性定量化を用いていないこと,つまり,これらのモデルが自身の制限を無視することを示す,文献のメタ分析を行う。
適切な不確実性定量化を伴わないモデルの使用結果について述べるとともに,適切な校正されたてんかん不確実性を有するモデルの採用をコミュニティに動機づけて,分布検出の回避を図る。
本論文は,コンピュータビジョン応用における不確実性推定に関する課題と推奨事項を要約して締めくくった。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - ClaudesLens: Uncertainty Quantification in Computer Vision Models [0.0]
シャノンエントロピーに基づく異なるコンピュータビジョンモデルの出力の不確かさを定量化し評価する方法を提案する。
我々は、シャノンエントロピーが、人工知能における不確実性を定量化するSOTA(State-of-the-art)手法において、最終的にはより大きな役割を果たすと考えている。
論文 参考訳(メタデータ) (2024-06-18T18:58:54Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Uncertainty in latent representations of variational autoencoders optimized for visual tasks [4.919240908498475]
可変オートエンコーダ(VAE)の潜時表現における不確実性表現について検討する。
本稿では、EA-VAEと呼ばれる新しい手法が、これらの問題をいかに解決するかを示す。
EA-VAEは、コンピュータ神経科学における知覚のモデルとコンピュータビジョンにおける推論ツールの両方として有用である。
論文 参考訳(メタデータ) (2024-04-23T16:26:29Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - BayesCap: Bayesian Identity Cap for Calibrated Uncertainty in Frozen
Neural Networks [50.15201777970128]
本研究では,凍結モデルに対するベイズIDマッピングを学習し,不確実性の推定を可能にするBayesCapを提案する。
BayesCapは、元のデータセットのごく一部でトレーニングできる、メモリ効率のよいメソッドである。
本稿では,多種多様なアーキテクチャを用いた多種多様なタスクに対する本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-07-14T12:50:09Z) - A Human-Centric Take on Model Monitoring [23.006624840045554]
実世界のアプリケーションにおいて、モデル監視のための様々な人間中心の課題と要件を特定します。
モデルモニタリングシステムの必要性と課題は,モニタリングが結果に与える影響を明らかにすることである。
論文 参考訳(メタデータ) (2022-06-06T19:47:29Z) - $f$-Cal: Calibrated aleatoric uncertainty estimation from neural
networks for robot perception [9.425514903472545]
既存のアプローチでは、ネットワークアーキテクチャ、推論手順、損失関数を変更することで、ニューラルネットワークの知覚スタックから不確実性を推定する。
私たちの重要な洞察は、キャリブレーションはミニバッチのような複数の例に制約を課すことでのみ達成できるということです。
ニューラルネットワークの出力分布を、$f$-divergenceを最小にすることで、ターゲット分布に類似させることにより、従来のアプローチに比べてはるかに優れた校正モデルが得られる。
論文 参考訳(メタデータ) (2021-09-28T17:57:58Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。