論文の概要: Neural Additive Models: Interpretable Machine Learning with Neural Nets
- arxiv url: http://arxiv.org/abs/2004.13912v2
- Date: Sun, 24 Oct 2021 19:24:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 10:06:01.866706
- Title: Neural Additive Models: Interpretable Machine Learning with Neural Nets
- Title(参考訳): ニューラル付加モデル:ニューラルネットを用いた解釈可能な機械学習
- Authors: Rishabh Agarwal, Levi Melnick, Nicholas Frosst, Xuezhou Zhang, Ben
Lengerich, Rich Caruana, Geoffrey Hinton
- Abstract要約: ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
- 参考スコア(独自算出の注目度): 77.66871378302774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) are powerful black-box predictors that have
achieved impressive performance on a wide variety of tasks. However, their
accuracy comes at the cost of intelligibility: it is usually unclear how they
make their decisions. This hinders their applicability to high stakes
decision-making domains such as healthcare. We propose Neural Additive Models
(NAMs) which combine some of the expressivity of DNNs with the inherent
intelligibility of generalized additive models. NAMs learn a linear combination
of neural networks that each attend to a single input feature. These networks
are trained jointly and can learn arbitrarily complex relationships between
their input feature and the output. Our experiments on regression and
classification datasets show that NAMs are more accurate than widely used
intelligible models such as logistic regression and shallow decision trees.
They perform similarly to existing state-of-the-art generalized additive models
in accuracy, but are more flexible because they are based on neural nets
instead of boosted trees. To demonstrate this, we show how NAMs can be used for
multitask learning on synthetic data and on the COMPAS recidivism data due to
their composability, and demonstrate that the differentiability of NAMs allows
them to train more complex interpretable models for COVID-19.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
しかし、その正確さは、知識のコストによってもたらされる: 彼らがどのように決定を下すかは、通常不明である。
これにより、医療などの高い意思決定領域への適用が妨げられる。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMはニューラルネットワークの線形結合を学習し、それぞれが単一の入力機能に対応する。
これらのネットワークは共同で訓練され、入力特徴と出力の関係を任意に学習することができる。
回帰および分類データセットに関する実験により、NAMはロジスティック回帰や浅い決定木などの知的なモデルよりも精度が高いことが示された。
既存の最先端の一般添加物モデルと同様の精度で機能するが、強化木ではなくニューラルネットをベースにしているため、より柔軟である。
これを示すために,合成データとCompASリシビズムデータを用いたマルチタスク学習においてNAMsがどのように使用できるかを示すとともに,NAMsの相違性により,より複雑な新型コロナウイルスの解釈可能なモデルを訓練できることを示す。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Structural Neural Additive Models: Enhanced Interpretable Machine
Learning [0.0]
近年、この分野は、視覚的に解釈可能なニューラル・アダプティブ・モデル(NAM)のような、解釈可能なニューラルネットワークに向かって進んでいる。
特徴効果の可視化を超越したインテリジェンス指向のさらなるステップを提案し, 構造的ニューラル付加モデル(SNAM)を提案する。
古典的かつ明確に解釈可能な統計手法とニューラルネットワークの予測能力を組み合わせたモデリングフレームワーク。
論文 参考訳(メタデータ) (2023-02-18T09:52:30Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Higher-order Neural Additive Models: An Interpretable Machine Learning
Model with Feature Interactions [2.127049691404299]
深層ニューラルネットワークのようなブラックボックスモデルは優れた予測性能を示すが、その振る舞いを理解することは極めて難しい。
最近提案されたニューラル加算モデル(NAM)は、最先端の解釈可能な機械学習を実現している。
本稿では,高次ニューラル加算モデル (HONAM) と呼ばれる新しい解釈可能な機械学習手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T12:12:30Z) - Simple and complex spiking neurons: perspectives and analysis in a
simple STDP scenario [0.7829352305480283]
スパイキングニューラルネットワーク(SNN)は、生物学や神経科学にヒントを得て、高速で効率的な学習システムを構築する。
この研究は、文学における様々なニューロンモデルを考察し、単変数で効率的な計算ニューロンモデルを選択し、様々な種類の複雑さを提示する。
我々は, LIF, Quadratic I&F (QIF) および Exponential I&F (EIF) の3つの単純なI&Fニューロンモデルの比較研究を行い, より複雑なモデルの使用によってシステムの性能が向上するかどうかを検証した。
論文 参考訳(メタデータ) (2022-06-28T10:01:51Z) - Neural Additive Models for Nowcasting [1.8275108630751844]
ニューラルネットワーク予測のための説明力を提供するために,ニューラルネットワーク付加モデル(NAMs)を提案する。
提案したNAM-NCは,複数の変数と時間ステップに対する各入力値の重要性をうまく説明できることを示す。
また, NAM-NC を用いたパラメータ共有ネットワークを用いて, その複雑性を低減し, NAM-MC のハードタイトな特徴ネットを用いて, 性能のよい説明を抽出した。
論文 参考訳(メタデータ) (2022-05-20T08:25:18Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。