論文の概要: E Pluribus Unum Interpretable Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2208.05369v1
- Date: Wed, 10 Aug 2022 14:37:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:31:05.654079
- Title: E Pluribus Unum Interpretable Convolutional Neural Networks
- Title(参考訳): E Pluribus Unum 解釈可能な畳み込みニューラルネットワーク
- Authors: George Dimas, Eirini Cholopoulou and Dimitris K. Iakovidis
- Abstract要約: 我々は、E Pluribus Unum Interpretable CNN(EPU-CNN)という、本質的に解釈可能なCNNモデルをインスタンス化する新しいフレームワークを開発した。
EPU-CNNモデルはCNNサブネットワークで構成され、それぞれが色やテクスチャなどの知覚的特徴を表す入力画像の異なる表現を受信する。
EPU-CNNモデルは、人間に認識可能な解釈を提供しながら、他のCNNアーキテクチャと同等または優れた分類性能が得られることを示す。
- 参考スコア(独自算出の注目度): 6.45481313278967
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The adoption of Convolutional Neural Network (CNN) models in high-stake
domains is hindered by their inability to meet society's demand for
transparency in decision-making. So far, a growing number of methodologies have
emerged for developing CNN models that are interpretable by design. However,
such models are not capable of providing interpretations in accordance with
human perception, while maintaining competent performance. In this paper, we
tackle these challenges with a novel, general framework for instantiating
inherently interpretable CNN models, named E Pluribus Unum Interpretable CNN
(EPU-CNN). An EPU-CNN model consists of CNN sub-networks, each of which
receives a different representation of an input image expressing a perceptual
feature, such as color or texture. The output of an EPU-CNN model consists of
the classification prediction and its interpretation, in terms of relative
contributions of perceptual features in different regions of the input image.
EPU-CNN models have been extensively evaluated on various publicly available
datasets, as well as a contributed benchmark dataset. Medical datasets are used
to demonstrate the applicability of EPU-CNN for risk-sensitive decisions in
medicine. The experimental results indicate that EPU-CNN models can achieve a
comparable or better classification performance than other CNN architectures
while providing humanly perceivable interpretations.
- Abstract(参考訳): 高い領域における畳み込みニューラルネットワーク(CNN)モデルの導入は、意思決定における透明性に対する社会の要求を満たすことができないために妨げられている。
今のところ、設計によって解釈可能なcnnモデルを開発するための方法論が増えている。
しかし、そのようなモデルは、有能な性能を維持しつつ、人間の知覚に従って解釈を提供することができない。
本稿では,これらの課題を,E Pluribus Unum Interpretable CNN (EPU-CNN) という,本質的に解釈可能なCNNモデルをインスタンス化する,新しい汎用フレームワークで解決する。
EPU-CNNモデルはCNNサブネットワークで構成され、それぞれが色やテクスチャなどの知覚的特徴を表す入力画像の異なる表現を受信する。
EPU-CNNモデルの出力は、入力画像の異なる領域における知覚的特徴の相対的寄与の観点から、分類予測とその解釈からなる。
EPU-CNNモデルは、様々な公開データセットやコントリビュートベンチマークデータセットで広く評価されている。
医療データセットは、医療におけるリスクに敏感な決定にEPU-CNNが適用可能であることを示すために使用される。
実験結果から,EPU-CNNモデルは他のCNNアーキテクチャと同等あるいは優れた分類性能を達成でき,人間に知覚可能な解釈を提供することができた。
関連論文リスト
- GINN-KAN: Interpretability pipelining with applications in Physics Informed Neural Networks [5.2969467015867915]
本稿では,解釈可能性パイプラインの概念を導入し,複数の解釈可能性技術を導入し,各手法の精度を向上する。
我々は、標準的なニューラルネットワークアーキテクチャに解釈可能性を導入する可能性のために選択された2つの最近のモデルを評価する。
両モデルの利点を合成する新しい解釈可能なニューラルネットワークGINN-KANを提案する。
論文 参考訳(メタデータ) (2024-08-27T04:57:53Z) - Heterogeneous Federated Learning with Convolutional and Spiking Neural Networks [17.210940028586588]
フェデレートラーニング(FL)は、分散データ上でモデルをトレーニングするための有望なパラダイムとして登場した。
この研究は、CNN(Convoluntional Neural Network)とSNN(Biologically more plausible Spiking Neural Network)の両方を含むFLシステムのベンチマークを行う。
CNN-SNN融合フレームワークが最高の性能を示すことを示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-06-14T03:05:05Z) - A Quantum Convolutional Neural Network Approach for Object Detection and
Classification [0.0]
QCNNの時間と精度は、異なる条件下での古典的なCNNやANNモデルと比較される。
この分析により、QCNNは、特定のアプリケーションにおける精度と効率の点で、古典的なCNNとANNのモデルより優れている可能性が示されている。
論文 参考訳(メタデータ) (2023-07-17T02:38:04Z) - Hybrid CNN -Interpreter: Interpret local and global contexts for
CNN-based Models [9.148791330175191]
畳み込みニューラルネットワーク(CNN)モデルでは、さまざまな領域のパフォーマンスが向上している。
解釈可能性の欠如は、AI支援アプリケーションの受け入れとデプロイの運用中の保証と規制の大きな障壁である。
本稿では,新しいCNN-Interpreterを提案する。
局所的解釈可能性に対する層特異的な予測結果を調べるための独自の前方伝播機構
特徴相関とフィルタ重大効果を示す新しい大域的解釈可能性
論文 参考訳(メタデータ) (2022-10-31T22:59:33Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Combining Discrete Choice Models and Neural Networks through Embeddings:
Formulation, Interpretability and Performance [10.57079240576682]
本研究では、ニューラルネットワーク(ANN)を用いた理論とデータ駆動選択モデルを組み合わせた新しいアプローチを提案する。
特に、分類的または離散的説明変数を符号化するために、埋め込みと呼ばれる連続ベクトル表現を用いる。
我々のモデルは最先端の予測性能を提供し、既存のANNモデルよりも優れ、必要なネットワークパラメータの数を劇的に削減します。
論文 参考訳(メタデータ) (2021-09-24T15:55:31Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - ECINN: Efficient Counterfactuals from Invertible Neural Networks [80.94500245955591]
本稿では, 画像分類における可逆ニューラルネットワークの生成能力を利用して, 対実例を効率的に生成する手法ECINNを提案する。
ECINNはクローズドフォーム表現を持ち、たった2つの評価の時点で反事実を生成する。
私たちの実験では、ECINNがクラス依存イメージ領域を変更して、反現実の知覚的および予測的クラスを変更する方法を示す。
論文 参考訳(メタデータ) (2021-03-25T09:23:24Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。