論文の概要: Understanding the Dependence of Perception Model Competency on Regions in an Image
- arxiv url: http://arxiv.org/abs/2407.10543v1
- Date: Mon, 15 Jul 2024 08:50:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 15:50:53.350098
- Title: Understanding the Dependence of Perception Model Competency on Regions in an Image
- Title(参考訳): 画像における知覚モデル能力の領域依存性の理解
- Authors: Sara Pohland, Claire Tomlin,
- Abstract要約: 低モデル能力に寄与する入力画像内の領域を特定する5つの方法を示す。
その結果,低モデル能力に関連する領域を特定する上で,能力勾配と復元損失法が有望であることが判明した。
- 参考スコア(独自算出の注目度): 0.10923877073891446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural network (DNN)-based perception models are useful for many applications, these models are black boxes and their outputs are not yet well understood. To confidently enable a real-world, decision-making system to utilize such a perception model without human intervention, we must enable the system to reason about the perception model's level of competency and respond appropriately when the model is incompetent. In order for the system to make an intelligent decision about the appropriate action when the model is incompetent, it would be useful for the system to understand why the model is incompetent. We explore five novel methods for identifying regions in the input image contributing to low model competency, which we refer to as image cropping, segment masking, pixel perturbation, competency gradients, and reconstruction loss. We assess the ability of these five methods to identify unfamiliar objects, recognize regions associated with unseen classes, and identify unexplored areas in an environment. We find that the competency gradients and reconstruction loss methods show great promise in identifying regions associated with low model competency, particularly when aspects of the image that are unfamiliar to the perception model are causing this reduction in competency. Both of these methods boast low computation times and high levels of accuracy in detecting image regions that are unfamiliar to the model, allowing them to provide potential utility in decision-making pipelines. The code for reproducing our methods and results is available on GitHub: https://github.com/sarapohland/explainable-competency.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)ベースの知覚モデルは、多くのアプリケーションで有用であるが、これらのモデルはブラックボックスであり、その出力はまだ十分に理解されていない。
実世界の意思決定システムが人間の介入なしにそのような知覚モデルを確実に活用できるようにするためには,認識モデルの能力レベルを判断し,モデルが無能な場合に適切に対応させなければならない。
モデルが無能な場合、システムが適切な動作についてインテリジェントな判断を下すためには、モデルが無能な理由を理解するのに役立ちます。
入力画像中の領域を識別する5つの新しい手法を探索し、画像トリミング、セグメントマスキング、ピクセル摂動、コンピテンシー勾配、再構築損失などと呼ぶ。
我々は,これら5つの手法を用いて,未知の物体を識別し,未知のクラスに関連付けられた領域を認識し,未知の領域を同定する能力を評価する。
特に、知覚モデルに不慣れな画像の側面が、この能力の低下を引き起こしている場合において、能力勾配と再構成損失法は、低モデル能力に関連する領域を特定する上で非常に有望であることがわかった。
どちらの手法も、モデルに不慣れな画像領域の検出において、計算時間が低く、高い精度を持つため、意思決定パイプラインにおいて潜在的に有用である。
メソッドと結果を再現するためのコードはGitHubで公開されている。
関連論文リスト
- PaRCE: Probabilistic and Reconstruction-based Competency Estimation for CNN-based Image Classification [0.10923877073891446]
確率的・再構成型能力推定法(PaRCE)を開発した。
本手法は, 異常領域を有するOODサンプルを正しく分類し, 誤分類し, 識別するのが最適であることがわかった。
本手法は,認識モデル信頼度という全体論的概念を最も確実に捉えた解釈可能なスコアを生成する。
論文 参考訳(メタデータ) (2024-11-22T22:08:57Z) - An Ambiguity Measure for Recognizing the Unknowns in Deep Learning [0.0]
深層ニューラルネットワークの学習範囲から, 深部ニューラルネットワークの理解について検討する。
任意のモデルに対する入力のあいまいさを定量化する尺度を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:57:12Z) - Assessment of the Reliablity of a Model's Decision by Generalizing
Attribution to the Wavelet Domain [0.8192907805418583]
本稿では,ウェーブレット変換を用いた画素領域から空間スケール領域への属性の一般化であるWavelet sCale Attribution Method (WCAM)を紹介する。
私たちのコードはここでアクセスできます。
論文 参考訳(メタデータ) (2023-05-24T10:13:32Z) - Combining Commonsense Reasoning and Knowledge Acquisition to Guide Deep
Learning in Robotics [8.566457170664926]
本稿では,認知システムの研究からインスピレーションを得たアーキテクチャについて述べる。
ディープネットワークモデルは、ロボット工学とAIにおける多くのパターン認識と意思決定タスクに使用されている。
我々のアーキテクチャは意思決定の信頼性を改善し、データ駆動のディープネットワークモデルのトレーニングに関わる労力を削減する。
論文 参考訳(メタデータ) (2022-01-25T12:24:22Z) - Multi-Semantic Image Recognition Model and Evaluating Index for
explaining the deep learning models [31.387124252490377]
まず,ニューラルネットワークの意思決定過程を人間に理解させるマルチセマンティック画像認識モデルを提案する。
次に、モデルの解釈可能性について定量的に評価できる新しい評価指標を示す。
本稿では,現在最先端のディープラーニングモデルを用いて,関連するベースライン性能を示す。
論文 参考訳(メタデータ) (2021-09-28T07:18:05Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - On the Post-hoc Explainability of Deep Echo State Networks for Time
Series Forecasting, Image and Video Classification [63.716247731036745]
エコー状態ネットワークは、主に学習アルゴリズムの単純さと計算効率のために、時間を通じて多くのスターを惹きつけてきた。
本研究では,時間系列,画像,映像データを用いた学習タスクに適用した場合のエコー状態ネットワークの説明可能性について検討した。
本研究では,これらの反復モデルが把握した知識に関する理解可能な情報を抽出する3つの手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T08:56:33Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。