論文の概要: SIDU: Similarity Difference and Uniqueness Method for Explainable AI
- arxiv url: http://arxiv.org/abs/2006.03122v1
- Date: Thu, 4 Jun 2020 20:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 08:57:21.857675
- Title: SIDU: Similarity Difference and Uniqueness Method for Explainable AI
- Title(参考訳): SIDU: 説明可能なAIの類似性と特異性
- Authors: Satya M. Muddamsetty, Mohammad N. S. Jahromi, Thomas B. Moeslund
- Abstract要約: 本稿では,深層学習ネットワークにおける新たな視覚的説明法について述べる。
提案手法は,有望な視覚的説明が有望であることを示す。
- 参考スコア(独自算出の注目度): 21.94600656231124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new brand of technical artificial intelligence ( Explainable AI ) research
has focused on trying to open up the 'black box' and provide some
explainability. This paper presents a novel visual explanation method for deep
learning networks in the form of a saliency map that can effectively localize
entire object regions. In contrast to the current state-of-the art methods, the
proposed method shows quite promising visual explanations that can gain greater
trust of human expert. Both quantitative and qualitative evaluations are
carried out on both general and clinical data sets to confirm the effectiveness
of the proposed method.
- Abstract(参考訳): 新しいブランドの技術的人工知能(説明可能なAI)の研究は、ブラックボックスのオープン化と説明可能性の提供に注力している。
本稿では,対象領域全体を効果的にローカライズできるサリエンシーマップという形で,深層学習ネットワークの視覚的な説明手法を提案する。
現在の最先端の手法とは対照的に、提案手法は有望な視覚的な説明を示し、人間の専門家の信頼を高めることができる。
提案手法の有効性を確認するために, 一般および臨床データから定量的, 質的評価を行った。
関連論文リスト
- A Survey of Explainable Knowledge Tracing [14.472784840283099]
本稿では,KTアルゴリズムの解釈可能性について詳細に解析する。
説明可能な知識追跡のための現在の評価方法が不足している。
本稿では,教育関係者の視点から評価手法について考察する。
論文 参考訳(メタデータ) (2024-03-12T03:17:59Z) - EvalAttAI: A Holistic Approach to Evaluating Attribution Maps in Robust
and Non-Robust Models [0.3425341633647624]
本稿では、ロバストニューラルネットワークがより説明しやすいかどうかを調べるために、属性マッピングの評価方法に焦点を当てる。
従来の指標の限界に対処する新しい説明可能性忠実度指標(EvalAttAI)を提案する。
論文 参考訳(メタデータ) (2023-03-15T18:33:22Z) - CRAFT: Concept Recursive Activation FacTorization for Explainability [5.306341151551106]
CRAFTは概念に基づく説明を生成することによって、"What"と"where"の両方を識別する新しいアプローチである。
提案手法の利点を実証するために,人間とコンピュータの視覚実験を行った。
論文 参考訳(メタデータ) (2022-11-17T14:22:47Z) - Towards Better Understanding Attribution Methods [77.1487219861185]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
また,いくつかの属性法の性能を著しく向上する処理後平滑化ステップを提案する。
論文 参考訳(メタデータ) (2022-05-20T20:50:17Z) - Evaluation of Self-taught Learning-based Representations for Facial
Emotion Recognition [62.30451764345482]
この研究は、顔の感情認識のための自己学習の概念を通じて得られた教師なし表現を生成するための様々な戦略を記述する。
このアイデアは、オートエンコーダの初期化、アーキテクチャ、トレーニングデータを変化させることで、多様性を促進する補完的な表現を作ることである。
Jaffe と Cohn-Kanade のデータセットに対する残余のサブジェクトアウトプロトコルによる実験結果から,提案した多種多様な表現に基づく FER 手法が最先端のアプローチと好適に比較できることが示唆された。
論文 参考訳(メタデータ) (2022-04-26T22:48:15Z) - TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models [0.0]
臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
論文 参考訳(メタデータ) (2021-10-16T01:00:15Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Revisiting The Evaluation of Class Activation Mapping for
Explainability: A Novel Metric and Experimental Analysis [54.94682858474711]
クラスアクティベーションマッピング(cam)アプローチは、アクティベーションマップの平均を重み付けすることで、効果的な可視化を提供する。
説明マップを定量化するための新しいメトリクスセットを提案し、より効果的な方法を示し、アプローチ間の比較を簡素化します。
論文 参考訳(メタデータ) (2021-04-20T21:34:24Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。