論文の概要: Explainable CNN-attention Networks (C-Attention Network) for Automated
Detection of Alzheimer's Disease
- arxiv url: http://arxiv.org/abs/2006.14135v2
- Date: Fri, 8 Jan 2021 04:43:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 02:55:23.340904
- Title: Explainable CNN-attention Networks (C-Attention Network) for Automated
Detection of Alzheimer's Disease
- Title(参考訳): アルツハイマー病自動検出のための説明可能なCNN注意ネットワーク(C-Attention Networks)
- Authors: Ning Wang, Mingxuan Chen, K.P. Subbalakshmi
- Abstract要約: 本稿では,アルツハイマー病患者を言語能力に基づいて自動的に検出する,説明可能な3つのディープラーニングアーキテクチャを提案する。
我々は,自己認識機構と1次元畳み込みニューラルネットワーク(CNN)を用いて,モデル動作の2種類の説明を生成する。
- 参考スコア(独自算出の注目度): 6.898865708583354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose three explainable deep learning architectures to
automatically detect patients with Alzheimer`s disease based on their language
abilities. The architectures use: (1) only the part-of-speech features; (2)
only language embedding features and (3) both of these feature classes via a
unified architecture. We use self-attention mechanisms and interpretable
1-dimensional ConvolutionalNeural Network (CNN) to generate two types of
explanations of the model`s action: intra-class explanation and inter-class
explanation. The inter-class explanation captures the relative importance of
each of the different features in that class, while the inter-class explanation
captures the relative importance between the classes. Note that although we
have considered two classes of features in this paper, the architecture is
easily expandable to more classes because of its modularity. Extensive
experimentation and comparison with several recent models show that our method
outperforms these methods with an accuracy of 92.2% and F1 score of 0.952on the
DementiaBank dataset while being able to generate explanations. We show by
examples, how to generate these explanations using attention values.
- Abstract(参考訳): 本研究では,アルツハイマー病患者を言語能力に基づいて自動的に検出する3つのディープラーニングアーキテクチャを提案する。
1) 一部機能のみ、(2) 言語埋め込み機能のみ、(3) 両方の機能クラスは統一アーキテクチャを介して使用される。
我々は,自己認識機構と1次元畳み込みニューラルネットワーク(CNN)を用いて,モデル動作の2種類の説明(クラス内説明とクラス間説明)を生成する。
クラス間説明はクラス内のそれぞれの異なる特徴の相対的重要性を捉え、クラス間説明はクラス間の相対的重要性を捉えます。
この記事では2つの機能のクラスを検討したが、モジュラリティのため、アーキテクチャは簡単により多くのクラスに拡張できる。
広範な実験と最近のモデルとの比較により,提案手法は,認知症バンクデータセット上で92.2%,f1スコア0.952の精度でこれらの手法を上回り,説明を生成できることを示した。
注意値を用いてこれらの説明を生成する方法の例を示す。
関連論文リスト
- Understanding Imbalanced Semantic Segmentation Through Neural Collapse [81.89121711426951]
セマンティックセグメンテーションは自然に文脈的相関とクラス間の不均衡分布をもたらすことを示す。
機能中心にレギュレータを導入し、ネットワークが魅力ある構造に近い機能を学ぶことを奨励する。
我々の手法は、ScanNet200テストリーダーボードで1位にランクインし、新しい記録を樹立する。
論文 参考訳(メタデータ) (2023-01-03T13:51:51Z) - A simple probabilistic neural network for machine understanding [0.0]
本稿では,機械理解のためのモデルとして,確率的ニューラルネットワークと内部表現の固定化について論じる。
内部表現は、それが最大関係の原理と、どのように異なる特徴が組み合わされるかについての最大無知を満たすことを要求して導出する。
このアーキテクチャを持つ学習機械は、パラメータやデータの変化に対する表現の連続性など、多くの興味深い特性を享受している、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T13:00:15Z) - GLANCE: Global to Local Architecture-Neutral Concept-based Explanations [26.76139301708958]
本稿では,任意のCNN画像分類器が行う決定を説明するために,新しいツインサロゲート説明可能性フレームワークを提案する。
最初に分類器から潜伏した特徴を取り除き、次にこれらの特徴を観察/人間の定義した文脈の特徴に整列する。
これらのアライメントは意味論的に意味のある概念を形成し、知覚されたデータ生成プロセスを表す因果グラフを抽出する。
我々は、潜在空間における特徴間の相互作用の効果を可視化し、局所的な説明として特徴を重要視するジェネレータを提供する。
論文 参考訳(メタデータ) (2022-07-05T09:52:09Z) - ELUDE: Generating interpretable explanations via a decomposition into
labelled and unlabelled features [23.384134043048807]
モデルの予測を2つの部分に分解する説明フレームワークを開発する。
後者を識別することで、モデルの"説明できない"部分を分析することができます。
また,同機能領域で訓練された複数のモデルに対して,非競合機能セットが一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T17:36:55Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Attribute Propagation Network for Graph Zero-shot Learning [57.68486382473194]
属性伝達ネットワーク (APNet) を導入し, 1) クラス毎に属性ベクトルを生成するグラフ伝搬モデルと, 2) パラメータ化隣人 (NN) 分類器から構成する。
APNetは、2つのゼロショット学習設定と5つのベンチマークデータセットによる実験で、魅力的なパフォーマンスまたは新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-24T16:53:40Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - Generating Hierarchical Explanations on Text Classification via Feature
Interaction Detection [21.02924712220406]
特徴的相互作用を検出することによって階層的な説明を構築する。
このような説明は、単語とフレーズが階層の異なるレベルでどのように結合されるかを視覚化する。
実験は、モデルに忠実であり、人間に解釈可能な説明を提供する上で、提案手法の有効性を示す。
論文 参考訳(メタデータ) (2020-04-04T20:56:37Z) - Explaining Explanations: Axiomatic Feature Interactions for Deep
Networks [10.635248457021495]
Integrated Hessianは、ニューラルネットワークにおける一対の特徴的相互作用を説明する統合グラディエントの拡張である。
特徴量が多い場合,提案手法は既存手法よりも高速であり,既存の定量的ベンチマークでは従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-02-10T23:49:00Z) - Learning Class Regularized Features for Action Recognition [68.90994813947405]
本稿では,階層活性化のクラスベース正規化を行うクラス正規化手法を提案する。
動作認識に最先端CNNアーキテクチャのクラス正規化ブロックを用いることで,Kineetics,UCF-101,HMDB-51データセットにおいて,それぞれ1.8%,1.2%,1.4%の体系的改善が得られた。
論文 参考訳(メタデータ) (2020-02-07T07:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。