論文の概要: Visual correspondence-based explanations improve AI robustness and
human-AI team accuracy
- arxiv url: http://arxiv.org/abs/2208.00780v2
- Date: Tue, 2 Aug 2022 17:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-07 14:17:46.197482
- Title: Visual correspondence-based explanations improve AI robustness and
human-AI team accuracy
- Title(参考訳): 視覚対応に基づく説明はAIの堅牢性と人間-AIチームの正確性を改善する
- Authors: Giang Nguyen, Mohammad Reza Taesiri, Anh Nguyen
- Abstract要約: 自己解釈可能な画像分類器の2つの新しいアーキテクチャを提案し、まず最初に説明し、次に予測する。
当社のモデルは、アウト・オブ・ディストリビューション(OOD)データセットにおいて、一貫して(1ポイントから4ポイント)改善しています。
ImageNetとCUBの画像分類タスクにおいて、補完的な人間-AIチームの精度(つまり、AI-aloneか人間-aloneよりも高い)を初めて達成できることが示される。
- 参考スコア(独自算出の注目度): 7.49039128276467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining artificial intelligence (AI) predictions is increasingly important
and even imperative in many high-stakes applications where humans are the
ultimate decision-makers. In this work, we propose two novel architectures of
self-interpretable image classifiers that first explain, and then predict (as
opposed to post-hoc explanations) by harnessing the visual correspondences
between a query image and exemplars. Our models consistently improve (by 1 to 4
points) on out-of-distribution (OOD) datasets while performing marginally worse
(by 1 to 2 points) on in-distribution tests than ResNet-50 and a $k$-nearest
neighbor classifier (kNN). Via a large-scale, human study on ImageNet and CUB,
our correspondence-based explanations are found to be more useful to users than
kNN explanations. Our explanations help users more accurately reject AI's wrong
decisions than all other tested methods. Interestingly, for the first time, we
show that it is possible to achieve complementary human-AI team accuracy (i.e.,
that is higher than either AI-alone or human-alone), in ImageNet and CUB image
classification tasks.
- Abstract(参考訳): ai(artificial intelligence, 人工知能)の予測を説明することは、人間が究極の意思決定者である多くの高リスクアプリケーションにおいて、ますます重要であり、さらに必須です。
そこで本研究では,まず自己解釈可能な画像分類器の2つの新しいアーキテクチャを提案し,クエリ画像とexemplars間の視覚的対応を利用して(ポストホックな説明とは対照的に)予測する。
当社のモデルでは, アウト・オブ・ディストリビューション(OOD)データセットにおいて, ResNet-50 や $k$-nearest 隣の分類器 (kNN) よりも分布内テストにおいて, 極端に悪い (1 から 2 ポイント) 性能を示した。
ImageNetとCUBの大規模な人間による研究により、我々の対応に基づく説明は、kNNの説明よりもユーザにとって有用であることが判明した。
私たちの説明は、AIの間違った判断を他のテスト方法よりも正確に拒否するのに役立つ。
興味深いことに、ImageNet と CUB の画像分類タスクにおいて、初めて補完的な人間-AI チームの精度(つまり、AI-alone か人間-alone どちらよりも高い)を達成することができることを示す。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Advancing Post Hoc Case Based Explanation with Feature Highlighting [0.8287206589886881]
テスト画像中の複数の明瞭な特徴部分を分離し、トレーニングデータに見られる説明事例に接続する2つの一般的なアルゴリズムを提案する。
提案手法は,実世界データにおける曖昧な分類に対して,ユーザの「正確さ」感を適切に校正することを示す。
論文 参考訳(メタデータ) (2023-11-06T16:34:48Z) - AdvisingNets: Learning to Distinguish Correct and Wrong Classifications
via Nearest-Neighbor Explanations [11.21483152473658]
本研究の目的は,入力画像とポストホック,最寄りの説明とを比較して,両者の精度を高めることである。
CUB-200では、人間とアドバイスネットの両方が意思決定を行う最先端のAIチームの精度も達成しています。
論文 参考訳(メタデータ) (2023-08-25T19:40:56Z) - A Novel Explainable Artificial Intelligence Model in Image
Classification problem [0.0]
本稿では,これらのアルゴリズムの利点を組み合わせたSeCAM(Activation Class Mapping)という新しい手法を提案する。
我々は、このアルゴリズムを、画像Net Large Scale Visual Recognition Challenge (ILSVRC)データセットのResNet50、Inception-v3、VGG16など様々なモデルでテストした。
論文 参考訳(メタデータ) (2023-07-09T09:33:05Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Improving Zero-shot Generalization and Robustness of Multi-modal Models [70.14692320804178]
CLIPやLiTのようなマルチモーダルな画像テキストモデルは、画像分類ベンチマークで顕著な性能を示している。
本研究は,この性能差の原因を考察し,テキストプロンプトの曖昧さによる障害事例の多くが原因であることを示す。
本稿では,WordNet階層を用いて,不確実な画像の精度を向上させるための簡易かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-12-04T07:26:24Z) - Foiling Explanations in Deep Neural Networks [0.0]
本稿では,画像ベースDNNにおける説明手法の問題点を明らかにする。
進化戦略を用いて、説明を任意に操作する方法を実証する。
我々の新しいアルゴリズムは、人間の目では認識できない方法で画像の操作に成功している。
論文 参考訳(メタデータ) (2022-11-27T15:29:39Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - On Explainability in AI-Solutions: A Cross-Domain Survey [4.394025678691688]
システムモデルを自動的に導出する際、AIアルゴリズムは人間には検出できないデータで関係を学習する。
モデルが複雑になればなるほど、人間が意思決定の理由を理解するのが難しくなる。
この研究は、この話題に関する広範な文献調査を提供し、その大部分は、他の調査から成っている。
論文 参考訳(メタデータ) (2022-10-11T06:21:47Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。