論文の概要: AdvisingNets: Learning to Distinguish Correct and Wrong Classifications
via Nearest-Neighbor Explanations
- arxiv url: http://arxiv.org/abs/2308.13651v1
- Date: Fri, 25 Aug 2023 19:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 19:55:44.811182
- Title: AdvisingNets: Learning to Distinguish Correct and Wrong Classifications
via Nearest-Neighbor Explanations
- Title(参考訳): AdvisingNets:Nearest-Neighbor説明による正誤分類と誤分類の識別学習
- Authors: Giang Nguyen, Valerie Chen, Anh Nguyen
- Abstract要約: 本研究の目的は,入力画像とポストホック,最寄りの説明とを比較して,両者の精度を高めることである。
CUB-200では、人間とアドバイスネットの両方が意思決定を行う最先端のAIチームの精度も達成しています。
- 参考スコア(独自算出の注目度): 11.21483152473658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Besides providing insights into how an image classifier makes its
predictions, nearest-neighbor examples also help humans make more accurate
decisions. Yet, leveraging this type of explanation to improve both human-AI
team accuracy and classifier's accuracy remains an open question. In this
paper, we aim to increase both types of accuracy by (1) comparing the input
image with post-hoc, nearest-neighbor explanations using a novel network
(AdvisingNet), and (2) employing a new reranking algorithm. Over different
baseline models, our method consistently improves the image classification
accuracy on CUB-200 and Cars-196 datasets. Interestingly, we also reach the
state-of-the-art human-AI team accuracy on CUB-200 where both humans and an
AdvisingNet make decisions on complementary subsets of images.
- Abstract(参考訳): 画像分類器の予測方法に関する洞察を提供するだけでなく、最も近い例は人間がより正確に決定するのに役立つ。
しかし、この種の説明を活用して人間-AIチームの精度と分類器の精度を改善することは、未解決の問題である。
本稿では,(1)新しいネットワーク (advisingnet) を用いた入力画像とポストホックな最寄り説明を比較し,(2)新しい再ランキングアルゴリズムを用いて,両者の精度を向上させることを目的とする。
CUB-200 と Cars-196 データセットの分類精度は,異なるベースラインモデルにおいて常に向上する。
興味深いことに、私たちはCUB-200の最先端の人間-AIチームの精度にも到達しています。
関連論文リスト
- On adversarial training and the 1 Nearest Neighbor classifier [8.248839892711478]
本研究では,1 NNN分類器の対向ロバスト性を解析し,その性能を対向訓練と比較する。
以上の結果から,現代の逆行訓練手法は単純な1NN分類器の頑健さに欠けていたことが示唆された。
論文 参考訳(メタデータ) (2024-04-09T13:47:37Z) - Image-Caption Encoding for Improving Zero-Shot Generalization [12.906307770270026]
OODデータポイントが誤って分類された場合、その正しいクラスはTop-K予測クラスによく見られる。
上位予測クラス内の正しいクラスに対してモデル予測を行うために,イメージ・キャプション (ICE) 法を提案する。
本手法は他のSOTA法と組み合わせて,Top-1 OODアキュラシーを平均0.5%,挑戦的データセットで最大3%向上させることができる。
論文 参考訳(メタデータ) (2024-02-05T01:14:07Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - Visual correspondence-based explanations improve AI robustness and
human-AI team accuracy [7.969008943697552]
自己解釈可能な画像分類器の2つの新しいアーキテクチャを提案し、まず最初に説明し、次に予測する。
当社のモデルは、アウト・オブ・ディストリビューション(OOD)データセットにおいて、一貫して(1ポイントから4ポイント)改善しています。
ImageNetとCUBの画像分類タスクにおいて、補完的な人間-AIチームの精度(つまり、AI-aloneか人間-aloneよりも高い)を初めて達成できることが示される。
論文 参考訳(メタデータ) (2022-07-26T10:59:42Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Overhead-MNIST: Machine Learning Baselines for Image Classification [0.0]
23の機械学習アルゴリズムをトレーニングし、ベースライン比較メトリクスを確立する。
Overhead-MNISTデータセットは、ユビキタスなMNISTの手書き桁に似たスタイルの衛星画像の集合である。
本稿では,エッジの展開性および今後の性能向上のためのベースラインとして,全体的な性能向上アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-07-01T13:30:39Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。