論文の概要: Higher-order Neural Additive Models: An Interpretable Machine Learning
Model with Feature Interactions
- arxiv url: http://arxiv.org/abs/2209.15409v1
- Date: Fri, 30 Sep 2022 12:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 16:08:16.165201
- Title: Higher-order Neural Additive Models: An Interpretable Machine Learning
Model with Feature Interactions
- Title(参考訳): 高次ニューラル付加モデル:特徴相互作用を持つ解釈可能な機械学習モデル
- Authors: Minkyu Kim, Hyun-Soo Choi, Jinho Kim
- Abstract要約: 深層ニューラルネットワークのようなブラックボックスモデルは優れた予測性能を示すが、その振る舞いを理解することは極めて難しい。
最近提案されたニューラル加算モデル(NAM)は、最先端の解釈可能な機械学習を実現している。
本稿では,高次ニューラル加算モデル (HONAM) と呼ばれる新しい解釈可能な機械学習手法を提案する。
- 参考スコア(独自算出の注目度): 2.127049691404299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Black-box models, such as deep neural networks, exhibit superior predictive
performances, but understanding their behavior is notoriously difficult. Many
explainable artificial intelligence methods have been proposed to reveal the
decision-making processes of black box models. However, their applications in
high-stakes domains remain limited. Recently proposed neural additive models
(NAM) have achieved state-of-the-art interpretable machine learning. NAM can
provide straightforward interpretations with slight performance sacrifices
compared with multi-layer perceptron. However, NAM can only model
1$^{\text{st}}$-order feature interactions; thus, it cannot capture the
co-relationships between input features. To overcome this problem, we propose a
novel interpretable machine learning method called higher-order neural additive
models (HONAM) and a feature interaction method for high interpretability.
HONAM can model arbitrary orders of feature interactions. Therefore, it can
provide the high predictive performance and interpretability that high-stakes
domains need. In addition, we propose a novel hidden unit to effectively learn
sharp-shape functions. We conducted experiments using various real-world
datasets to examine the effectiveness of HONAM. Furthermore, we demonstrate
that HONAM can achieve fair AI with a slight performance sacrifice. The source
code for HONAM is publicly available.
- Abstract(参考訳): 深層ニューラルネットワークのようなブラックボックスモデルは優れた予測性能を示すが、その振る舞いを理解することは極めて難しい。
多くの説明可能な人工知能手法がブラックボックスモデルの意思決定過程を明らかにするために提案されている。
しかし、高機能ドメインでの応用は限られている。
最近提案されたニューラル加算モデル(NAM)は、最先端の解釈可能な機械学習を実現している。
NAMは、多層パーセプトロンと比較して、わずかな性能犠牲を伴う簡単な解釈を提供することができる。
しかし、NAMは1$^{\text{st}}$-order機能相互作用しかモデル化できないため、入力特徴間のコリレーションをキャプチャすることはできない。
この問題を解決するために,高次ニューラル加算モデル (HONAM) と呼ばれる新しい解釈可能な機械学習手法と高解釈性のための特徴相互作用法を提案する。
HONAMは機能相互作用の任意の順序をモデル化できる。
したがって、高スループットドメインが必要とする高い予測性能と解釈性を提供することができる。
さらに,シャープ形状関数を効果的に学習する新しい隠れ単位を提案する。
我々は,HONAMの有効性を調べるために,実世界の様々なデータセットを用いて実験を行った。
さらに,HONAMがパフォーマンスを犠牲にして公平なAIを実現することを実証した。
HONAMのソースコードは公開されている。
関連論文リスト
- Interpretable Language Modeling via Induction-head Ngram Models [74.26720927767398]
誘導ヘッドngramモデル(Induction-Gram)を提案する。
この誘導ヘッドは、カスタムのニューラル類似度メトリックを使用して、モデルの入力コンテキストを効率的に検索し、潜在的に次の単語補完を行う。
実験により,本手法はベースラインの解釈可能なモデルよりも,単語の次単語予測を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-10-31T12:33:26Z) - Explainable Automatic Grading with Neural Additive Models [0.0]
現在の最先端ASAGモデルは、大きなニューラルネットワーク(NN)であり、しばしば「ブラックボックス」と表現される。
我々は、NNの性能と付加モデルの説明可能性を組み合わせたニューラル付加モデル(Neural Additive Model)と呼ばれるモデルの実験を行った。
論文 参考訳(メタデータ) (2024-05-01T12:56:14Z) - Efficient Adaptive Human-Object Interaction Detection with
Concept-guided Memory [64.11870454160614]
概念誘導メモリ(ADA-CM)を用いた適応型HOI検出器を提案する。
ADA-CMには2つの操作モードがある。最初のモードでは、トレーニング不要のパラダイムで新しいパラメータを学習することなくチューニングできる。
提案手法は, HICO-DET と V-COCO のデータセットに対して, より少ないトレーニング時間で, 最新技術による競合的な結果を得る。
論文 参考訳(メタデータ) (2023-09-07T13:10:06Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Structural Neural Additive Models: Enhanced Interpretable Machine
Learning [0.0]
近年、この分野は、視覚的に解釈可能なニューラル・アダプティブ・モデル(NAM)のような、解釈可能なニューラルネットワークに向かって進んでいる。
特徴効果の可視化を超越したインテリジェンス指向のさらなるステップを提案し, 構造的ニューラル付加モデル(SNAM)を提案する。
古典的かつ明確に解釈可能な統計手法とニューラルネットワークの予測能力を組み合わせたモデリングフレームワーク。
論文 参考訳(メタデータ) (2023-02-18T09:52:30Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Neural Additive Models for Nowcasting [1.8275108630751844]
ニューラルネットワーク予測のための説明力を提供するために,ニューラルネットワーク付加モデル(NAMs)を提案する。
提案したNAM-NCは,複数の変数と時間ステップに対する各入力値の重要性をうまく説明できることを示す。
また, NAM-NC を用いたパラメータ共有ネットワークを用いて, その複雑性を低減し, NAM-MC のハードタイトな特徴ネットを用いて, 性能のよい説明を抽出した。
論文 参考訳(メタデータ) (2022-05-20T08:25:18Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。