論文の概要: Towards Human-Understandable Visual Explanations:Imperceptible
High-frequency Cues Can Better Be Removed
- arxiv url: http://arxiv.org/abs/2104.07954v1
- Date: Fri, 16 Apr 2021 08:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 23:43:30.748009
- Title: Towards Human-Understandable Visual Explanations:Imperceptible
High-frequency Cues Can Better Be Removed
- Title(参考訳): 人間の理解可能な視覚説明に向けて:不可避な高周波の手がかりを除去できる
- Authors: Kaili Wang, Jose Oramas, Tinne Tuytelaars
- Abstract要約: HVS(Human Visual System)と精神物理学に制約された人間の能力を考慮する必要があると我々は主張する。
実顔画像と偽顔画像の分類に関するケーススタディを行い、標準的なニューラルネットワークによって選択された特徴の多くは、人間には認識できないことが判明した。
- 参考スコア(独自算出の注目度): 46.36600006968488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) methods focus on explaining what a neural network has
learned - in other words, identifying the features that are the most
influential to the prediction. In this paper, we call them "distinguishing
features". However, whether a human can make sense of the generated explanation
also depends on the perceptibility of these features to humans. To make sure an
explanation is human-understandable, we argue that the capabilities of humans,
constrained by the Human Visual System (HVS) and psychophysics, need to be
taken into account. We propose the {\em human perceptibility principle for
XAI}, stating that, to generate human-understandable explanations, neural
networks should be steered towards focusing on human-understandable cues during
training. We conduct a case study regarding the classification of real vs. fake
face images, where many of the distinguishing features picked up by standard
neural networks turn out not to be perceptible to humans. By applying the
proposed principle, a neural network with human-understandable explanations is
trained which, in a user study, is shown to better align with human intuition.
This is likely to make the AI more trustworthy and opens the door to humans
learning from machines. In the case study, we specifically investigate and
analyze the behaviour of the human-imperceptible high spatial frequency
features in neural networks and XAI methods.
- Abstract(参考訳): 説明可能なAI(XAI)メソッドは、ニューラルネットワークが学んだことを説明することに重点を置いている。
本稿では,これらを「識別機能」と呼ぶ。
しかし、人間が生成した説明を理解できるかは、これらの特徴の人間への受容性にも依存する。
ヒトの視覚システム(hvs)と精神物理学によって制約された人間の能力は、人間に理解可能なものであることを確認するために考慮する必要があると論じる。
我々は、人間の理解可能な説明を生成するために、ニューラルネットワークはトレーニング中に人間の理解可能な手がかりに焦点を合わせるべきであると述べる。
実顔画像と偽顔画像の分類に関するケーススタディを行い、標準的なニューラルネットワークによって選択された特徴の多くは、人間には認識できないことが判明した。
提案する原則を適用することで、人間の理解可能な説明を含むニューラルネットワークを訓練し、ユーザ研究において、人間の直観に合致することが示される。
これはAIをより信頼しやすくし、機械から学ぶ人間の扉を開く可能性が高い。
本研究では,ニューラルネットワークおよびXAI法において,人間の知覚できない高空間周波数特性の挙動を特に調査し,解析する。
関連論文リスト
- HINT: Learning Complete Human Neural Representations from Limited Viewpoints [69.76947323932107]
我々は、限られた視野角から詳細な人間のモデルを学習できるNeRFベースのアルゴリズムを提案する。
その結果,数個の視角からでも完全な人間の再構築が可能となり,性能は15%以上向上した。
論文 参考訳(メタデータ) (2024-05-30T05:43:09Z) - The future of human-centric eXplainable Artificial Intelligence (XAI) is not post-hoc explanations [3.7673721058583123]
本稿では、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計へのシフトを提案する。
我々は、人間中心型XAIの5つのニーズを特定し、ニューラルネットワークの解釈と設計のための2つのスキームを提案する。
論文 参考訳(メタデータ) (2023-07-01T15:24:47Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Matching Representations of Explainable Artificial Intelligence and Eye
Gaze for Human-Machine Interaction [0.7742297876120561]
タスクベース刺激の迅速な非言語コミュニケーションは、人間と機械のコラボレーションにおける課題である。
本研究では、運転行動予測のためのニューラルネットワークの視覚的ヒートマップ説明と、運転者の視線熱マップとの相関について検討する。
論文 参考訳(メタデータ) (2021-01-30T07:42:56Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z) - Self-explaining AI as an alternative to interpretable AI [0.0]
二重降下は、深層ニューラルネットワークがデータポイント間のスムーズな補間によって動作することを示している。
複雑な現実世界のデータに基づいてトレーニングされたニューラルネットワークは、本質的に解釈が困難で、外挿を求めると失敗する傾向がある。
自己説明型AIは、決定と説明の両方の信頼性レベルとともに、人間に理解可能な説明を提供することができる。
論文 参考訳(メタデータ) (2020-02-12T18:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。