論文の概要: Q-SENN: Quantized Self-Explaining Neural Networks
- arxiv url: http://arxiv.org/abs/2312.13839v2
- Date: Fri, 16 Feb 2024 11:18:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 19:48:03.853210
- Title: Q-SENN: Quantized Self-Explaining Neural Networks
- Title(参考訳): Q-SENN: 量子化された自己説明型ニューラルネットワーク
- Authors: Thomas Norrenbrock, Marco Rudolph, Bodo Rosenhahn
- Abstract要約: 自己説明型ニューラルネットワーク(SENN)は、解釈可能な概念を忠実さ、多様性、基礎として抽出し、それらを線形に組み合わせて意思決定する。
本稿では,量子自己説明型ニューラルネットワークQ-SENNを提案する。
Q-SENNは、より複雑なデータセットに適用しながら、SENNのデシラタを満たすか、超える。
- 参考スコア(独自算出の注目度): 24.305850756291246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explanations in Computer Vision are often desired, but most Deep Neural
Networks can only provide saliency maps with questionable faithfulness.
Self-Explaining Neural Networks (SENN) extract interpretable concepts with
fidelity, diversity, and grounding to combine them linearly for
decision-making. While they can explain what was recognized, initial
realizations lack accuracy and general applicability. We propose the
Quantized-Self-Explaining Neural Network Q-SENN. Q-SENN satisfies or exceeds
the desiderata of SENN while being applicable to more complex datasets and
maintaining most or all of the accuracy of an uninterpretable baseline model,
out-performing previous work in all considered metrics. Q-SENN describes the
relationship between every class and feature as either positive, negative or
neutral instead of an arbitrary number of possible relations, enforcing more
binary human-friendly features. Since every class is assigned just 5
interpretable features on average, Q-SENN shows convincing local and global
interpretability. Additionally, we propose a feature alignment method, capable
of aligning learned features with human language-based concepts without
additional supervision. Thus, what is learned can be more easily verbalized.
The code is published: https://github.com/ThomasNorr/Q-SENN
- Abstract(参考訳): コンピュータビジョンにおける説明はしばしば望まれるが、ディープニューラルネットワークのほとんどは、疑わしい忠実さを持つサリエンシマップしか提供できない。
自己説明型ニューラルネットワーク(SENN)は、解釈可能な概念を忠実さ、多様性、基礎として抽出し、それらを線形に組み合わせて意思決定する。
認識されたことを説明できるが、初期実現には正確さと汎用性がない。
本稿では,量子自己説明型ニューラルネットワークQ-SENNを提案する。
Q-SENNはSENNのデシラタを満足または超過し、より複雑なデータセットに適用し、解釈不能なベースラインモデルのほとんどまたは全てを維持し、すべての考慮された指標において以前の作業より優れている。
Q-SENNは、全てのクラスと機能の間の関係を、任意の数の可能な関係ではなく、肯定的、否定的、中立的な関係として記述し、よりバイナリな人間フレンドリな特徴を強制する。
すべてのクラスが平均で5つの解釈可能な機能に割り当てられているため、Q-SENNは局所的およびグローバル的解釈可能性を示す。
また,学習した特徴を人間の言語に基づく概念と整合させる機能アライメント手法を提案する。
したがって、学習内容はより容易に言語化できる。
コードは https://github.com/ThomasNorr/Q-SENN
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - SimpleMind adds thinking to deep neural networks [3.888848425698769]
ディープニューラルネットワーク(DNN)はデータのパターンを検出し、多くのコンピュータビジョンアプリケーションで汎用性と強力なパフォーマンスを示している。
DNNだけでは、単純で常識的な概念に反する明らかな誤りに陥り、明確な知識を使って探索と意思決定を導く能力に制限がある。
本稿では,医療画像理解に焦点を当てたCognitive AIのためのオープンソースソフトウェアフレームワークであるSimpleMindを紹介する。
論文 参考訳(メタデータ) (2022-12-02T03:38:20Z) - Neural Networks are Decision Trees [0.0]
本稿では, 線形活性化関数を持つ任意のニューラルネットワークが決定木として表現可能であることを示す。
表現は等価であり近似ではないため、ニューラルネットワークの精度はそのままに保たれる。
論文 参考訳(メタデータ) (2022-10-11T06:49:51Z) - C-SENN: Contrastive Self-Explaining Neural Network [0.5939410304994348]
本研究では、コントラスト学習と概念学習を組み合わせることで、概念の可読性とタスクの精度を向上させる。
我々はこのモデルをContrastive Self-Explaining Neural Network (C-SENN)と呼ぶ。
論文 参考訳(メタデータ) (2022-06-20T05:23:02Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Expressive Explanations of DNNs by Combining Concept Analysis with ILP [0.3867363075280543]
我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
論文 参考訳(メタデータ) (2021-05-16T07:00:27Z) - Learning Semantically Meaningful Features for Interpretable
Classifications [17.88784870849724]
SemCNNは視覚特徴と単語句の関連を学習する。
複数のベンチマークデータセットの実験結果は、SemCNNが明確な意味を持つ特徴を学習できることを実証している。
論文 参考訳(メタデータ) (2021-01-11T14:35:16Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。