論文の概要: PCNN: Probable-Class Nearest-Neighbor Explanations Improve Fine-Grained Image Classification Accuracy for AIs and Humans
- arxiv url: http://arxiv.org/abs/2308.13651v5
- Date: Mon, 26 Aug 2024 21:11:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 20:18:41.073848
- Title: PCNN: Probable-Class Nearest-Neighbor Explanations Improve Fine-Grained Image Classification Accuracy for AIs and Humans
- Title(参考訳): PCNN:AIと人間のための細粒度画像分類の精度を向上する予測可能なクラスNearest-Neighbor説明
- Authors: Giang, Nguyen, Valerie Chen, Mohammad Reza Taesiri, Anh Totti Nguyen,
- Abstract要約: 最も近い隣人(NN)は、伝統的に最終決定を計算するために使用される。
本稿では, 冷凍予め訓練した画像分類器Cの予測を改善するため, 近隣住民の新たな利用方法を示す。
CUB-200, Cars-196, Dogs-120における画像分類精度を常に改善する。
- 参考スコア(独自算出の注目度): 7.655550161309149
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nearest neighbors (NN) are traditionally used to compute final decisions, e.g., in Support Vector Machines or k-NN classifiers, and to provide users with explanations for the model's decision. In this paper, we show a novel utility of nearest neighbors: To improve predictions of a frozen, pretrained image classifier C. We leverage an image comparator S that (1) compares the input image with NN images from the top-K most probable classes given by C; and (2) uses scores from S to weight the confidence scores of C to refine predictions. Our method consistently improves fine-grained image classification accuracy on CUB-200, Cars-196, and Dogs-120. Also, a human study finds that showing users our probable-class nearest neighbors (PCNN) reduces over-reliance on AI, thus improving their decision accuracy over prior work which only shows only the most-probable (top-1) class examples.
- Abstract(参考訳): 最寄りの隣人(NN)は、伝統的にSupport Vector Machinesやk-NNの分類器で最終決定を計算したり、モデルの判断を説明するために使用される。
本稿では,凍結した事前訓練された画像分類器Cの予測を改善するために,(1)入力画像と,(2)Cが与える最上位クラスのNN画像を比較した画像コンパレータSを活用し,(2)Cの信頼性スコアをSから重み付けして予測を洗練させる。
CUB-200, Cars-196, Dogs-120における画像分類精度を常に改善する。
また、人間による研究では、予測可能なクラス隣人(PCNN)を示すことによって、AIへの過度な依存が軽減され、最も確率の高い(トップ-1)クラスの例のみを示す以前の作業よりも、決定精度が向上することがわかった。
関連論文リスト
- Image-Caption Encoding for Improving Zero-Shot Generalization [12.906307770270026]
OODデータポイントが誤って分類された場合、その正しいクラスはTop-K予測クラスによく見られる。
上位予測クラス内の正しいクラスに対してモデル予測を行うために,イメージ・キャプション (ICE) 法を提案する。
本手法は他のSOTA法と組み合わせて,Top-1 OODアキュラシーを平均0.5%,挑戦的データセットで最大3%向上させることができる。
論文 参考訳(メタデータ) (2024-02-05T01:14:07Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - Visual correspondence-based explanations improve AI robustness and
human-AI team accuracy [7.969008943697552]
自己解釈可能な画像分類器の2つの新しいアーキテクチャを提案し、まず最初に説明し、次に予測する。
当社のモデルは、アウト・オブ・ディストリビューション(OOD)データセットにおいて、一貫して(1ポイントから4ポイント)改善しています。
ImageNetとCUBの画像分類タスクにおいて、補完的な人間-AIチームの精度(つまり、AI-aloneか人間-aloneよりも高い)を初めて達成できることが示される。
論文 参考訳(メタデータ) (2022-07-26T10:59:42Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Overhead-MNIST: Machine Learning Baselines for Image Classification [0.0]
23の機械学習アルゴリズムをトレーニングし、ベースライン比較メトリクスを確立する。
Overhead-MNISTデータセットは、ユビキタスなMNISTの手書き桁に似たスタイルの衛星画像の集合である。
本稿では,エッジの展開性および今後の性能向上のためのベースラインとして,全体的な性能向上アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-07-01T13:30:39Z) - Instance-based learning using the Half-Space Proximal Graph [0.0]
本稿では,Em Half-Space Proximal (HSP)グラフを用いたパラメータフリーなインスタンスベース学習アルゴリズムを提案する。
その結果、データセットのバッテリで$k$に対して$KNN$が改善された。
論文 参考訳(メタデータ) (2021-02-04T17:36:59Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。