論文の概要: DeepCSHAP: Utilizing Shapley Values to Explain Deep Complex-Valued
Neural Networks
- arxiv url: http://arxiv.org/abs/2403.08428v1
- Date: Wed, 13 Mar 2024 11:26:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:43:37.527065
- Title: DeepCSHAP: Utilizing Shapley Values to Explain Deep Complex-Valued
Neural Networks
- Title(参考訳): DeepCSHAP: 共有価値を活用して、より複雑な価値を説明する
ニューラルネットワーク
- Authors: Florian Eilers and Xiaoyi Jiang
- Abstract要約: ディープニューラルネットワークは、アカデミーや企業や公共のアプリケーションで広く使われている。
アウトプットを説明する能力は、安全上の理由だけでなく、応募者の受け入れにも不可欠である。
複素数値ニューラルネットワークでの使用に適した4つの勾配に基づく説明法を提案する。
- 参考スコア(独自算出の注目度): 7.4841568561701095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks are widely used in academy as well as corporate and
public applications, including safety critical applications such as health care
and autonomous driving. The ability to explain their output is critical for
safety reasons as well as acceptance among applicants. A multitude of methods
have been proposed to explain real-valued neural networks. Recently,
complex-valued neural networks have emerged as a new class of neural networks
dealing with complex-valued input data without the necessity of projecting them
onto $\mathbb{R}^2$. This brings up the need to develop explanation algorithms
for this kind of neural networks. In this paper we provide these developments.
While we focus on adapting the widely used DeepSHAP algorithm to the complex
domain, we also present versions of four gradient based explanation methods
suitable for use in complex-valued neural networks. We evaluate the explanation
quality of all presented algorithms and provide all of them as an open source
library adaptable to most recent complex-valued neural network architectures.
- Abstract(参考訳): ディープニューラルネットワークは、医療や自動運転といった安全上の重要な応用を含む、アカデミーや企業や公共のアプリケーションで広く使われている。
アウトプットを説明する能力は、安全上の理由だけでなく、応募者の受け入れにも不可欠である。
実数値ニューラルネットワークを説明するために,多数の手法が提案されている。
近年、複雑な値を持つニューラルネットワークは、$\mathbb{R}^2$に投影することなく、複雑な値を持つ入力データを扱うニューラルネットワークの新しいクラスとして登場した。
これにより、この種のニューラルネットワークのための説明アルゴリズムを開発する必要が生じる。
本稿では,これらの展開について述べる。
我々は、広く使われているDeepSHAPアルゴリズムを複素領域に適用することに注力する一方で、複素数値ニューラルネットワークでの使用に適した4つの勾配に基づく説明方法のバージョンも提示する。
我々は、提示された全てのアルゴリズムの説明品質を評価し、それら全てを、最新の複雑な評価されたニューラルネットワークアーキテクチャに適応可能なオープンソースライブラリとして提供する。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - When Deep Learning Meets Polyhedral Theory: A Survey [6.899761345257773]
過去10年間で、ディープ・ニューラル・ラーニングの顕著な精度のおかげで、ディープは予測モデリングの一般的な方法論となった。
一方、ニューラルネットワークの構造はより単純で線形な関数に収束した。
論文 参考訳(メタデータ) (2023-04-29T11:46:53Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - How and what to learn:The modes of machine learning [7.085027463060304]
本稿では, 重み経路解析(WPA)と呼ばれる新しい手法を提案し, 多層ニューラルネットワークのメカニズムについて検討する。
WPAは、ニューラルネットワークが情報を「ホログラフィック」な方法で保存し、活用していることを示し、ネットワークはすべてのトレーニングサンプルをコヒーレントな構造にエンコードする。
隠れた層状ニューロンは学習過程の後半で異なるクラスに自己組織化することが判明した。
論文 参考訳(メタデータ) (2022-02-28T14:39:06Z) - Information Flow in Deep Neural Networks [0.6922389632860545]
ディープニューラルネットワークの動作や構造に関する包括的な理論的理解は存在しない。
深層ネットワークはしばしば、不明確な解釈と信頼性を持つブラックボックスと見なされる。
この研究は、情報理論の原理と技法をディープラーニングモデルに適用し、理論的理解を高め、より良いアルゴリズムを設計することを目的としている。
論文 参考訳(メタデータ) (2022-02-10T23:32:26Z) - Neural Network Quantization for Efficient Inference: A Survey [0.0]
ニューラルネットワークの量子化は、最近、ニューラルネットワークのサイズと複雑さを減らすというこの要求を満たすために発生した。
本稿では,過去10年間に開発された多くのニューラルネットワーク量子化技術について検討する。
論文 参考訳(メタデータ) (2021-12-08T22:49:39Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural
Networks [3.7277730514654555]
決定木を用いて、関連する特徴とその相互作用をキャプチャし、抽出した関係をニューラルネットワークにエンコードするマッピングを定義する。
同時に、機能選択により、アートツリーベースのアプローチの状況と比較して、コンパクトな表現の学習が可能になる。
論文 参考訳(メタデータ) (2020-02-11T11:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。