論文の概要: Flexible Visual Recognition by Evidential Modeling of Confusion and
Ignorance
- arxiv url: http://arxiv.org/abs/2309.07403v1
- Date: Thu, 14 Sep 2023 03:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 16:18:09.570911
- Title: Flexible Visual Recognition by Evidential Modeling of Confusion and
Ignorance
- Title(参考訳): コンフュージョンと無視の証拠モデリングによるフレキシブルな視覚認識
- Authors: Lei Fan, Bo Liu, Haoxiang Li, Ying Wu, Gang Hua
- Abstract要約: 現実のシナリオでは、典型的な視覚認識システムは、既知のクラスと、未知のクラスイメージにおける排他的誤動作の間の誤分類という、2つの主要な原因の下で失敗する可能性がある。
これらの欠陥に対処するために、フレキシブルな視覚認識は、選択が不確実な場合に複数のクラスを動的に予測し、入力がトレーニング分布から完全に外れたときに予測を拒否するべきである。
本稿では,この2つの不確実性源を主観的論理理論で明確にモデル化することを提案する。
- 参考スコア(独自算出の注目度): 25.675733490127964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world scenarios, typical visual recognition systems could fail under
two major causes, i.e., the misclassification between known classes and the
excusable misbehavior on unknown-class images. To tackle these deficiencies,
flexible visual recognition should dynamically predict multiple classes when
they are unconfident between choices and reject making predictions when the
input is entirely out of the training distribution. Two challenges emerge along
with this novel task. First, prediction uncertainty should be separately
quantified as confusion depicting inter-class uncertainties and ignorance
identifying out-of-distribution samples. Second, both confusion and ignorance
should be comparable between samples to enable effective decision-making. In
this paper, we propose to model these two sources of uncertainty explicitly
with the theory of Subjective Logic. Regarding recognition as an
evidence-collecting process, confusion is then defined as conflicting evidence,
while ignorance is the absence of evidence. By predicting Dirichlet
concentration parameters for singletons, comprehensive subjective opinions,
including confusion and ignorance, could be achieved via further evidence
combinations. Through a series of experiments on synthetic data analysis,
visual recognition, and open-set detection, we demonstrate the effectiveness of
our methods in quantifying two sources of uncertainties and dealing with
flexible recognition.
- Abstract(参考訳): 現実のシナリオでは、一般的な視覚認識システムは、既知のクラス間の誤分類と、未知のクラスイメージの抽出可能な誤検出という2つの大きな原因で失敗する可能性がある。
これらの欠陥に対処するために、フレキシブルな視覚認識は、選択が不確実な場合に複数のクラスを動的に予測し、入力がトレーニング分布から完全に外れたときに予測を拒否する必要がある。
この新しい課題と共に2つの課題が浮かび上がる。
第一に、予測の不確実性は、クラス間の不確実性や分布外サンプルの識別の無知を描写する混乱として、別々に定量化されるべきである。
第二に、効果的な意思決定を可能にするために、混乱と無知の両方をサンプル間で比較すべきである。
本稿では,この2つの不確実性源を主観的論理理論で明確にモデル化することを提案する。
証拠収集過程としての認識に関して、混乱は矛盾する証拠として定義され、無知は証拠の欠如である。
シングルトンに対するディリクレ濃度パラメータを予測することで、混乱や無知を含む包括的な主観的意見は、さらなるエビデンスの組み合わせによって達成できる。
本研究では, 合成データ解析, 視覚認識, オープンセット検出に関する一連の実験を通じて, 2つの不確かさの源を定量化し, 柔軟に認識する手法の有効性を実証する。
関連論文リスト
- Causal Discovery in Linear Models with Unobserved Variables and Measurement Error [26.72594853233639]
因果構造学習の課題では, 未観測の共通原因の存在と測定誤差の存在が, 最も限定的な課題である。
これら2つの課題が同時に存在するシステムにおける因果発見の問題について検討する。
論文 参考訳(メタデータ) (2024-07-28T08:26:56Z) - Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Uncertain Facial Expression Recognition via Multi-task Assisted
Correction [43.02119884581332]
MTACと呼ばれる不確実な表情認識に対処するためのマルチタスク支援補正法を提案する。
具体的には、信頼度推定ブロックと重み付け正則化モジュールを用いて、固体試料をハイライトし、バッチ毎に不確かさサンプルを抑圧する。
RAF-DB、AffectNet、AffWild2データセットの実験は、MTACが合成および実際の不確実性に直面した際のベースラインよりも大幅に改善されていることを示した。
論文 参考訳(メタデータ) (2022-12-14T10:28:08Z) - Uncertain Evidence in Probabilistic Models and Stochastic Simulators [80.40110074847527]
我々は、不確実性を伴う観測を伴う確率論的モデルにおいて、ベイズ的推論を行うという問題について考察する。
我々は、不確実な証拠をどう解釈するかを探求し、潜伏変数の推論に関連する適切な解釈の重要性を拡大する。
我々は、不確実な証拠を説明するための具体的なガイドラインを考案し、特に一貫性に関する新しい洞察を提供する。
論文 参考訳(メタデータ) (2022-10-21T20:32:59Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - A Tale Of Two Long Tails [4.970364068620608]
モデルが不確実である例を特定し、その不確実性の原因を特徴付ける。
追加情報が存在する場合の学習速度が,非典型例と雑音例とで異なるか否かを検討する。
以上の結果から,トレーニングの過程で適切に設計された介入は,異なる不確実性源の識別・識別に有効な方法であることが示唆された。
論文 参考訳(メタデータ) (2021-07-27T22:49:59Z) - Uncertainty-Aware Reliable Text Classification [21.517852608625127]
ディープニューラルネットワークは、分類タスクの予測精度の成功に大きく貢献している。
ドメインシフトやアウト・オブ・ディストリビューション(out-of-distribution)の例が存在する現実の環境では、過度に信頼された予測を行う傾向があります。
補助外乱と擬似外乱サンプルを併用して, あるクラスの事前知識でモデルを訓練する, 安価なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-15T04:39:55Z) - DISSECT: Disentangled Simultaneous Explanations via Concept Traversals [33.65478845353047]
DISSECTは、ディープラーニングモデル推論を説明するための新しいアプローチである。
DISSECTは、分類器の信号から生成モデルを訓練することにより、異なる概念の分類器固有の「名詞」を発見する方法を提供する。
DISSECTは,複数の概念を分離し,共同訓練による推論と結合したCTを生成する。
論文 参考訳(メタデータ) (2021-05-31T17:11:56Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - End-to-End Models for the Analysis of System 1 and System 2 Interactions
based on Eye-Tracking Data [99.00520068425759]
本稿では,よく知られたStroopテストの視覚的修正版において,様々なタスクと潜在的な競合事象を特定するための計算手法を提案する。
統計的分析により、選択された変数は、異なるシナリオにおける注意負荷の変動を特徴付けることができることが示された。
機械学習技術は,異なるタスクを分類精度良く区別できることを示す。
論文 参考訳(メタデータ) (2020-02-03T17:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。