論文の概要: Deeply Explainable Artificial Neural Network
- arxiv url: http://arxiv.org/abs/2505.06731v1
- Date: Sat, 10 May 2025 18:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.010094
- Title: Deeply Explainable Artificial Neural Network
- Title(参考訳): 深く説明可能なニューラルネットワーク
- Authors: David Zucker,
- Abstract要約: 本稿では,学習プロセスに直接説明可能性アンテホックを組み込む,新しいディープラーニングアーキテクチャを提案する。
フローベースのフレームワーク上に構築され、正確な予測と透過的な意思決定の両方を可能にします。
DxANNは、本質的に解釈可能なディープラーニングへの一歩であり、信頼と説明責任が不可欠であるアプリケーションに実用的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While deep learning models have demonstrated remarkable success in numerous domains, their black-box nature remains a significant limitation, especially in critical fields such as medical image analysis and inference. Existing explainability methods, such as SHAP, LIME, and Grad-CAM, are typically applied post hoc, adding computational overhead and sometimes producing inconsistent or ambiguous results. In this paper, we present the Deeply Explainable Artificial Neural Network (DxANN), a novel deep learning architecture that embeds explainability ante hoc, directly into the training process. Unlike conventional models that require external interpretation methods, DxANN is designed to produce per-sample, per-feature explanations as part of the forward pass. Built on a flow-based framework, it enables both accurate predictions and transparent decision-making, and is particularly well-suited for image-based tasks. While our focus is on medical imaging, the DxANN architecture is readily adaptable to other data modalities, including tabular and sequential data. DxANN marks a step forward toward intrinsically interpretable deep learning, offering a practical solution for applications where trust and accountability are essential.
- Abstract(参考訳): 深層学習モデルは、多くの領域で顕著な成功を収めてきたが、ブラックボックスの性質は、特に医学的画像解析や推論のような重要な分野において、大きな限界を保っている。
SHAP、LIME、Grad-CAMといった既存の説明可能性法は一般にポストホックで適用され、計算オーバーヘッドを加算し、時には矛盾や曖昧な結果を生み出す。
本稿では,Deeply Explainable Artificial Neural Network (DxANN)について述べる。
外部解釈法を必要とする従来のモデルとは異なり、DxANNは前方パスの一部としてサンプルごと、機能ごとの説明を生成するように設計されている。
フローベースのフレームワーク上に構築されたこのフレームワークは、正確な予測と透過的な意思決定の両方を可能にし、特に画像ベースのタスクに適している。
医用画像に重点を置いているが、DxANNアーキテクチャは表やシーケンシャルデータを含む他のデータモダリティに容易に適応できる。
DxANNは、本質的に解釈可能なディープラーニングへの一歩であり、信頼と説明責任が不可欠であるアプリケーションに実用的なソリューションを提供する。
関連論文リスト
- DLBacktrace: A Model Agnostic Explainability for any Deep Learning Models [1.747623282473278]
深層学習モデル決定に対する明確な洞察を提供するために設計された,モデルに依存しない手法であるDLBacktraceを紹介する。
本稿では,DLBacktraceの概要を概説し,その性能を既存の解釈可能性手法と比較する。
その結果,DLBacktraceは多種多様なタスクにおけるモデル行動の理解を効果的に促進することを示した。
論文 参考訳(メタデータ) (2024-11-19T16:54:30Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Interpretable Mesomorphic Networks for Tabular Data [25.76214343259399]
我々は,深度と線形性の両方を同時に備えた,解釈可能なニューラルネットワークの新たなクラスを提案する。
我々は、ディープ・ハイパーネットワークを最適化し、インスタンス毎に説明可能な線形モデルを生成する。
論文 参考訳(メタデータ) (2023-05-22T14:41:17Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Blending Knowledge in Deep Recurrent Networks for Adverse Event
Prediction at Hospital Discharge [15.174501264797309]
セルフアテンテンションに基づくリカレントニューラルネットワークによって計算された患者データの表現と臨床的に関連性のある機能とを融合させた学習アーキテクチャを導入する。
我々は,大規模なクレームデータセットについて広範な実験を行い,ブレンド手法が標準的な機械学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:07:45Z) - Explainability-aided Domain Generalization for Image Classification [0.0]
説明可能性文献から手法やアーキテクチャを適用することで、ドメインの一般化という困難な課題に対して最先端のパフォーマンスを達成できることを示す。
そこで我々は,勾配に基づくクラスアクティベーションマップを用いて学習中にネットワークが指導を受ける手法であるDivCAMを含む新しいアルゴリズムを開発し,多様な識別機能に焦点をあてる。
これらの手法は、説明可能性に加えて競合性能を提供するため、深層ニューラルネットワークアーキテクチャのロバスト性を改善するツールとして使用できると論じる。
論文 参考訳(メタデータ) (2021-04-05T02:27:01Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Deep Transparent Prediction through Latent Representation Analysis [0.0]
本稿では,訓練されたディープニューラルネットワーク(DNN)から潜時情報を抽出し,予測目的のために効果的で統一された方法で解析された簡潔な表現を導出する,新しいディープラーニング手法を提案する。
透明性と高い予測精度を組み合わせることが、提案手法の目標である。
論文 参考訳(メタデータ) (2020-09-13T19:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。