論文の概要: A Robust Unsupervised Ensemble of Feature-Based Explanations using
Restricted Boltzmann Machines
- arxiv url: http://arxiv.org/abs/2111.07379v1
- Date: Sun, 14 Nov 2021 15:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 17:56:03.617020
- Title: A Robust Unsupervised Ensemble of Feature-Based Explanations using
Restricted Boltzmann Machines
- Title(参考訳): 制限ボルツマンマシンを用いた特徴量に基づくロバスト無教師アンサンブル
- Authors: Vadim Borisov, Johannes Meier, Johan van den Heuvel, Hamed Jalali,
Gjergji Kasneci
- Abstract要約: Restricted Boltzmann Machines (RBMs) を用いた説明アルゴリズムの特徴属性の集約手法を提案する。
実世界のデータセットにおけるいくつかの挑戦的な実験により、提案手法は一般的な特徴帰属法や基本アンサンブル手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 4.821071466968101
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Understanding the results of deep neural networks is an essential step
towards wider acceptance of deep learning algorithms. Many approaches address
the issue of interpreting artificial neural networks, but often provide
divergent explanations. Moreover, different hyperparameters of an explanatory
method can lead to conflicting interpretations. In this paper, we propose a
technique for aggregating the feature attributions of different explanatory
algorithms using Restricted Boltzmann Machines (RBMs) to achieve a more
reliable and robust interpretation of deep neural networks. Several challenging
experiments on real-world datasets show that the proposed RBM method
outperforms popular feature attribution methods and basic ensemble techniques.
- Abstract(参考訳): ディープニューラルネットワークの結果を理解することは、ディープラーニングアルゴリズムを広く受け入れる上で不可欠なステップである。
多くのアプローチは、ニューラルネットワークの解釈の問題に対処するが、しばしば異なる説明を提供する。
さらに、説明法の異なるハイパーパラメータは、矛盾する解釈につながる可能性がある。
本稿では,Restricted Boltzmann Machines (RBMs) を用いて,様々な説明アルゴリズムの特徴属性を集約し,より信頼性が高く堅牢な深層ニューラルネットワーク解釈を実現する手法を提案する。
実世界のデータセットにおけるいくつかの挑戦的な実験により、提案手法は一般的な特徴帰属法や基本アンサンブル手法よりも優れていることが示された。
関連論文リスト
- Perturbation on Feature Coalition: Towards Interpretable Deep Neural Networks [0.1398098625978622]
ディープニューラルネットワーク(DNN)の“ブラックボックス”という性質は、透明性と信頼性を損なう。
本稿では,ネットワークの深い情報を利用して相関した特徴を抽出する,特徴連立による摂動に基づく解釈を提案する。
論文 参考訳(メタデータ) (2024-08-23T22:44:21Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Learning Interpretable Deep Disentangled Neural Networks for
Hyperspectral Unmixing [16.02193274044797]
非線形性および終端変動を考慮した高スペクトルアンミックスのための新しい解釈可能な深層学習法を提案する。
モデルは、バックプロパゲーションを使用してエンドツーエンドに学習され、セルフ教師付き戦略を使用してトレーニングされる。
合成および実データを用いた実験結果から,提案手法の性能が示唆された。
論文 参考訳(メタデータ) (2023-10-03T18:21:37Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Robust Explanation Constraints for Neural Networks [33.14373978947437]
ニューラルネットワークの意図で使われるポストホックな説明法は、しばしば彼らの出力を信頼するのに役立つと言われている。
我々のトレーニング方法は、ニューラルネットワークを学習できる唯一の方法であり、6つのテストネットワークでテストされた堅牢性に関する洞察を持つ。
論文 参考訳(メタデータ) (2022-12-16T14:40:25Z) - Interpretable Social Anchors for Human Trajectory Forecasting in Crowds [84.20437268671733]
本研究では,人混みの軌跡を予測できるニューラルネットワークシステムを提案する。
解釈可能なルールベースのインテントを学び、ニューラルネットワークの表現可能性を利用してシーン固有の残差をモデル化する。
私たちのアーキテクチャは、インタラクション中心のベンチマークTrajNet++でテストされています。
論文 参考訳(メタデータ) (2021-05-07T09:22:34Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Towards Robust Explanations for Deep Neural Networks [5.735035463793008]
モデルの最大操作性に関する境界を導出するための統一理論フレームワークを開発する。
操作に対する堅牢性を高める3つの異なる技術を紹介します。
論文 参考訳(メタデータ) (2020-12-18T18:29:09Z) - Making Neural Networks Interpretable with Attribution: Application to
Implicit Signals Prediction [11.427019313283997]
本稿では,属性処理のための解釈可能なディープニューラルネットワークの新たな定式化を提案する。
マスク付きの重量を使って隠れた特徴を深く評価し、いくつかの入力制限されたサブネットワークに分割し、専門家の強化された混合として訓練する。
論文 参考訳(メタデータ) (2020-08-26T06:46:49Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。