論文の概要: An NMF-Based Building Block for Interpretable Neural Networks With
Continual Learning
- arxiv url: http://arxiv.org/abs/2311.11485v1
- Date: Mon, 20 Nov 2023 02:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 20:06:15.624948
- Title: An NMF-Based Building Block for Interpretable Neural Networks With
Continual Learning
- Title(参考訳): 連続学習型ニューラルネットワークのためのNMFベースビルディングブロック
- Authors: Brian K. Vogel
- Abstract要約: 既存の学習方法は、解釈可能性と予測性能のバランスをとるのに苦労することが多い。
我々のアプローチは、NMFに基づくビルディングブロックを使用することで、これらの2つの側面のバランスを改善することを目的としています。
- 参考スコア(独自算出の注目度): 0.8158530638728501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing learning methods often struggle to balance interpretability and
predictive performance. While models like nearest neighbors and non-negative
matrix factorization (NMF) offer high interpretability, their predictive
performance on supervised learning tasks is often limited. In contrast, neural
networks based on the multi-layer perceptron (MLP) support the modular
construction of expressive architectures and tend to have better recognition
accuracy but are often regarded as black boxes in terms of interpretability.
Our approach aims to strike a better balance between these two aspects through
the use of a building block based on NMF that incorporates supervised neural
network training methods to achieve high predictive performance while retaining
the desirable interpretability properties of NMF. We evaluate our Predictive
Factorized Coupling (PFC) block on small datasets and show that it achieves
competitive predictive performance with MLPs while also offering improved
interpretability. We demonstrate the benefits of this approach in various
scenarios, such as continual learning, training on non-i.i.d. data, and
knowledge removal after training. Additionally, we show examples of using the
PFC block to build more expressive architectures, including a fully-connected
residual network as well as a factorized recurrent neural network (RNN) that
performs competitively with vanilla RNNs while providing improved
interpretability. The PFC block uses an iterative inference algorithm that
converges to a fixed point, making it possible to trade off accuracy vs
computation after training but also currently preventing its use as a general
MLP replacement in some scenarios such as training on very large datasets. We
provide source code at https://github.com/bkvogel/pfc
- Abstract(参考訳): 既存の学習方法は、しばしば解釈可能性と予測性能のバランスをとるのに苦労する。
近距離近傍や非負行列分解(nmf)のようなモデルは高い解釈性をもたらすが、教師付き学習タスクにおける予測性能はしばしば制限される。
対照的に、多層パーセプトロン(MLP)に基づくニューラルネットワークは、表現的アーキテクチャのモジュラ構築をサポートし、認識精度は向上するが、解釈可能性の観点からはブラックボックスと見なされることが多い。
提案手法は,NMFの望ましい解釈可能性特性を維持しつつ高い予測性能を達成するために,教師付きニューラルネットワークトレーニング手法を取り入れたNMFに基づくビルディングブロックを用いて,これらの2つの側面のバランスを改善することを目的としている。
予測因子結合(PFC)ブロックを小さなデータセット上で評価し,MLPと競合する予測性能を実現し,解釈性の向上を実現した。
このアプローチのメリットは,連続学習,非I.D.データのトレーニング,学習後の知識除去など,さまざまなシナリオで実証する。
さらに,完全連結残差ネットワークや,バニラRNNと競合する分解型リカレントニューラルネットワーク(RNN)など,より表現力のあるアーキテクチャを構築するためにPFCブロックを使用する例を示す。
PFCブロックは、一定の点に収束する反復推論アルゴリズムを使用して、トレーニング後の精度と計算のトレードオフを可能にするが、非常に大きなデータセットのトレーニングのようなシナリオでは、一般的なMLP置換としての使用を妨げている。
私たちはhttps://github.com/bkvogel/pfcでソースコードを提供しています。
関連論文リスト
- Neural Reasoning Networks: Efficient Interpretable Neural Networks With Automatic Textual Explanations [45.974930902038494]
本稿では,新しいニューラルシンボリックアーキテクチャであるニューラル推論ネットワーク(NRN)を提案する。
トレーニングアルゴリズム(R-NRN)は、バックプロップによる降下最適化を用いて、通常通りネットワークの重みを学習するが、また、帯域ベース最適化を用いてネットワーク構造自体を学習する。
R-NRNの説明は、比較したアプローチよりも短いが、より正確な特徴重要度スコアを生成する。
論文 参考訳(メタデータ) (2024-10-10T14:27:12Z) - Convolutional Channel-wise Competitive Learning for the Forward-Forward
Algorithm [5.1246638322893245]
深層ニューラルネットワークのトレーニングに一般的に使用されるバックプロパゲーション(BP)の問題を軽減するために,フォワードフォワード(FF)アルゴリズムが提案されている。
我々は、画像分類タスクにおける畳み込みニューラルネットワークの文脈において、チャネルワイズ競争学習を活用することにより、FFの主な考え方を取り入れ、それらを改善する。
MNIST, Fashion-MNIST, CIFAR-10, CIFAR-100の試験誤差は0.58%, 7.69%, 21.89%, 48.77%であった。
論文 参考訳(メタデータ) (2023-12-19T23:48:43Z) - Decouple Graph Neural Networks: Train Multiple Simple GNNs Simultaneously Instead of One [60.5818387068983]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z) - Effect of Architectures and Training Methods on the Performance of
Learned Video Frame Prediction [10.404162481860634]
実験結果から,残差FCNNアーキテクチャは高いトレーニングとテスト(推論)計算の複雑さを犠牲にして,ピーク信号対雑音比(PSNR)の点で最善であることがわかった。
CRNNは、時間的手続きを通じて、ステートフルなトランケートされたバックプロパゲーションを使用して、安定かつ非常に効率的に訓練することができる。
論文 参考訳(メタデータ) (2020-08-13T20:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。