論文の概要: PCNN: Probable-Class Nearest-Neighbor Explanations Improve Fine-Grained Image Classification Accuracy for AIs and Humans
- arxiv url: http://arxiv.org/abs/2308.13651v4
- Date: Thu, 1 Aug 2024 21:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 18:53:04.906380
- Title: PCNN: Probable-Class Nearest-Neighbor Explanations Improve Fine-Grained Image Classification Accuracy for AIs and Humans
- Title(参考訳): PCNN:AIと人間のための細粒度画像分類の精度を向上する予測可能なクラスNearest-Neighbor説明
- Authors: Giang Nguyen, Valerie Chen, Mohammad Reza Taesiri, Anh Totti Nguyen,
- Abstract要約: 最も近い隣人(NN)は、伝統的に最終決定を計算するために使用される。
本稿では, 冷凍, 事前訓練された分類器Cの予測を改善するため, 近隣住民の新たなユーティリティを示す。
CUB-200, Cars-196, Dogs-120における画像分類精度を常に改善する。
- 参考スコア(独自算出の注目度): 7.355977594790582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nearest neighbors (NN) are traditionally used to compute final decisions, e.g., in Support Vector Machines or k-NN classifiers, and to provide users with explanations for the model's decision. In this paper, we show a novel utility of nearest neighbors: To improve predictions of a frozen, pretrained classifier C. We leverage an image comparator S that (1) compares the input image with NN images from the top-K most probable classes; and (2) uses S' output scores to weight the confidence scores of C. Our method consistently improves fine-grained image classification accuracy on CUB-200, Cars-196, and Dogs-120. Also, a human study finds that showing lay users our probable-class nearest neighbors (PCNN) reduces over-reliance on AI, thus improving their decision accuracy over prior work which only shows only the top-1 class examples.
- Abstract(参考訳): 最寄りの隣人(NN)は、伝統的にSupport Vector Machinesやk-NNの分類器で最終決定を計算したり、モデルの判断を説明するために使用される。
本稿では,CUB-200,Cars-196,Dogs-120の詳細な画像分類精度を常に向上させ,(1)入力画像をトップKのNN画像と比較する画像コンパレータSを活用し,(2)出力スコアを用いてCの信頼性スコアを重み付けする手法を提案する。
また、人間による研究では、有望なクラスに近い隣人(PCNN)を示すことによって、AIへの過度な依存が軽減され、トップ1クラスの例のみを示す以前の作業よりも、意思決定精度が向上することがわかった。
関連論文リスト
- On adversarial training and the 1 Nearest Neighbor classifier [8.248839892711478]
本研究では,1 NNN分類器の対向ロバスト性を解析し,その性能を対向訓練と比較する。
以上の結果から,現代の逆行訓練手法は単純な1NN分類器の頑健さに欠けていたことが示唆された。
論文 参考訳(メタデータ) (2024-04-09T13:47:37Z) - Image-Caption Encoding for Improving Zero-Shot Generalization [12.906307770270026]
OODデータポイントが誤って分類された場合、その正しいクラスはTop-K予測クラスによく見られる。
上位予測クラス内の正しいクラスに対してモデル予測を行うために,イメージ・キャプション (ICE) 法を提案する。
本手法は他のSOTA法と組み合わせて,Top-1 OODアキュラシーを平均0.5%,挑戦的データセットで最大3%向上させることができる。
論文 参考訳(メタデータ) (2024-02-05T01:14:07Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - Visual correspondence-based explanations improve AI robustness and
human-AI team accuracy [7.969008943697552]
自己解釈可能な画像分類器の2つの新しいアーキテクチャを提案し、まず最初に説明し、次に予測する。
当社のモデルは、アウト・オブ・ディストリビューション(OOD)データセットにおいて、一貫して(1ポイントから4ポイント)改善しています。
ImageNetとCUBの画像分類タスクにおいて、補完的な人間-AIチームの精度(つまり、AI-aloneか人間-aloneよりも高い)を初めて達成できることが示される。
論文 参考訳(メタデータ) (2022-07-26T10:59:42Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Overhead-MNIST: Machine Learning Baselines for Image Classification [0.0]
23の機械学習アルゴリズムをトレーニングし、ベースライン比較メトリクスを確立する。
Overhead-MNISTデータセットは、ユビキタスなMNISTの手書き桁に似たスタイルの衛星画像の集合である。
本稿では,エッジの展開性および今後の性能向上のためのベースラインとして,全体的な性能向上アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-07-01T13:30:39Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。