論文の概要: Laplace-Approximated Neural Additive Models: Improving Interpretability
with Bayesian Inference
- arxiv url: http://arxiv.org/abs/2305.16905v1
- Date: Fri, 26 May 2023 13:19:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 14:55:02.994213
- Title: Laplace-Approximated Neural Additive Models: Improving Interpretability
with Bayesian Inference
- Title(参考訳): Laplace- Approximated Neural Additive Model: ベイズ推論による解釈性の向上
- Authors: Kouroche Bouchiat, Alexander Immer, Hugo Y\`eche, Gunnar R\"atsch,
Vincent Fortuin
- Abstract要約: ディープニューラルネットワーク(DNN)は多くの分野で成功しているが、ブラックボックスの性質は解釈可能性を妨げる。
これは、ニューラルネットワークを付加的なサブネットワークに分割する神経付加モデル(NAM)によって対処される。
本稿では,ベイズ的視点から加法構造にアプローチし,実用的なラプラス近似を開発する。
- 参考スコア(独自算出の注目度): 66.4574531037055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have found successful applications in many
fields, but their black-box nature hinders interpretability. This is addressed
by the neural additive model (NAM), in which the network is divided into
additive sub-networks, thus making apparent the interaction between input
features and predictions. In this paper, we approach the additive structure
from a Bayesian perspective and develop a practical Laplace approximation. This
enhances interpretability in three primary ways: a) It provides credible
intervals for the recovered feature interactions by estimating function-space
uncertainty of the sub-networks; b) it yields a tractable estimate of the
marginal likelihood, which can be used to perform an implicit selection of
features through an empirical Bayes procedure; and c) it can be used to rank
feature pairs as candidates for second-order interactions in fine-tuned
interaction models. We show empirically that our proposed Laplace-approximated
NAM (LA-NAM) improves performance and interpretability on tabular regression
and classification datasets and challenging real-world medical tasks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くの分野で成功しているが、ブラックボックスの性質は解釈可能性を妨げる。
これはneural additive model(nam)によって対処され、ネットワークは加法サブネットワークに分割され、入力特徴と予測の間の相互作用が明らかになる。
本稿では,ベイズ的視点から加法構造にアプローチし,実用的なラプラス近似を開発する。
これは3つの主要な方法で解釈可能性を高める。
a) サブネットワークの機能空間の不確かさを推定することにより、回収された特徴的相互作用に対して信頼できる間隔を提供する。
b) 経験的ベイズ手続きを通じて,暗黙的な特徴の選択を行うために使用できる,限界可能性の追跡可能な推定値が得られること。
c) 微調整された相互作用モデルにおける2次相互作用の候補として特徴対をランク付けするのに使用できる。
提案したLaplace-approximated NAM (LA-NAM) は,表の回帰および分類データセットの性能と解釈性を向上し,現実の医療課題に挑戦することを実証的に示す。
関連論文リスト
- DCNN: Dual Cross-current Neural Networks Realized Using An Interactive Deep Learning Discriminator for Fine-grained Objects [48.65846477275723]
本研究では、微細な画像分類の精度を向上させるために、新しい二重電流ニューラルネットワーク(DCNN)を提案する。
弱い教師付き学習バックボーンモデルを構築するための新しい特徴として、(a)異種データの抽出、(b)特徴マップの解像度の維持、(c)受容領域の拡大、(d)グローバル表現と局所特徴の融合などがある。
論文 参考訳(メタデータ) (2024-05-07T07:51:28Z) - Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - SCAAT: Improving Neural Network Interpretability via Saliency
Constrained Adaptive Adversarial Training [10.716021768803433]
サリエンシマップは、特徴属性のヒートマップを示す一般的な説明形式である。
本研究では,DNNの解釈能力を向上させるために,Saliency Constrained Adversarial Training (SCAAT) と呼ばれるモデルに依存しない学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T04:48:38Z) - Improving Transferability of Adversarial Examples via Bayesian Attacks [84.90830931076901]
モデル入力にベイズ定式化を組み込むことにより,モデル入力とモデルパラメータの共分散を可能にする新しい拡張を導入する。
提案手法は,トランスファーベース攻撃に対する新たな最先端技術を実現し,ImageNetとCIFAR-10の平均成功率をそれぞれ19.14%,2.08%向上させる。
論文 参考訳(メタデータ) (2023-07-21T03:43:07Z) - Pseudo-Trilateral Adversarial Training for Domain Adaptive
Traversability Prediction [8.145900996884993]
トラバーサビリティ予測は、自律ナビゲーションの基本的な認識能力である。
非教師なしドメイン適応(UDA)を行うために、粗大なアライメント(CALI)を採用する新しい知覚モデルを提案する。
いくつかの挑戦的なドメイン適応設定において、提案したモデルが複数のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-26T00:39:32Z) - Bayesian optimization for sparse neural networks with trainable
activation functions [0.0]
パラメータを推定する必要があるトレーニング可能なアクティベーション関数を提案する。
モデル重みとアクティベーション関数パラメータの両方から学習データから自動的に推定する完全ベイズモデルを開発した。
論文 参考訳(メタデータ) (2023-04-10T08:44:44Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - GAMI-Net: An Explainable Neural Network based on Generalized Additive
Models with Structured Interactions [5.8010446129208155]
構造的相互作用を持つ一般化付加モデル(GAMI-Net)に基づく説明可能なニューラルネットワークを提案し,予測精度とモデル解釈可能性とのバランスを良好に追求する。
GAMI-Net(英語版)は、複数の添加物を持つ非絡み合ったフィードフォワードネットワークである。
合成関数と実世界のデータセットの双方に関する数値実験により,提案モデルが優れた解釈性を有することが示された。
論文 参考訳(メタデータ) (2020-03-16T11:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。