論文の概要: Generalized Gloves of Neural Additive Models: Pursuing transparent and
accurate machine learning models in finance
- arxiv url: http://arxiv.org/abs/2209.10082v1
- Date: Wed, 21 Sep 2022 03:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 15:41:18.713708
- Title: Generalized Gloves of Neural Additive Models: Pursuing transparent and
accurate machine learning models in finance
- Title(参考訳): 神経添加モデルの一般化手袋 : 金融における透明で正確な機械学習モデルの追求
- Authors: Dangxing Chen and Weicheng Ye
- Abstract要約: 本稿では,ニューラル加算モデルの一般化グローブとして知られる,透明で解釈可能な機械学習アルゴリズムの新たなクラスを紹介する。
ニューラル加法モデルの一般化グローブは、線形特徴、個々の非線形特徴、相互作用された非線形特徴の3つのカテゴリに分けられる。
経験的結果は、神経付加モデルの一般化した手袋が、最も単純なアーキテクチャで最適な精度を提供することを示した。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For many years, machine learning methods have been used in a wide range of
fields, including computer vision and natural language processing. While
machine learning methods have significantly improved model performance over
traditional methods, their black-box structure makes it difficult for
researchers to interpret results. For highly regulated financial industries,
transparency, explainability, and fairness are equally, if not more, important
than accuracy. Without meeting regulated requirements, even highly accurate
machine learning methods are unlikely to be accepted. We address this issue by
introducing a novel class of transparent and interpretable machine learning
algorithms known as generalized gloves of neural additive models. The
generalized gloves of neural additive models separate features into three
categories: linear features, individual nonlinear features, and interacted
nonlinear features. Additionally, interactions in the last category are only
local. The linear and nonlinear components are distinguished by a stepwise
selection algorithm, and interacted groups are carefully verified by applying
additive separation criteria. Empirical results demonstrate that generalized
gloves of neural additive models provide optimal accuracy with the simplest
architecture, allowing for a highly accurate, transparent, and explainable
approach to machine learning.
- Abstract(参考訳): 長年にわたり、コンピュータビジョンや自然言語処理など、さまざまな分野で機械学習手法が使用されてきた。
機械学習の手法は従来の手法に比べてモデルの性能を大幅に向上させたが、ブラックボックス構造は研究者が結果を解釈することが困難である。
高度に規制された金融業界では、透明性、説明可能性、公正性は正確さよりも重要である。
規制された要件を満たさなければ、高度に正確な機械学習手法が受け入れられる可能性は低い。
本稿では,神経添加モデルの一般化グローブと呼ばれる,透明で解釈可能な機械学習アルゴリズムの新たなクラスを導入することで,この問題に対処した。
ニューラル加法モデルの一般化グローブは、線形特徴、個々の非線形特徴、相互作用された非線形特徴の3つのカテゴリに分けられる。
さらに、最後のカテゴリの相互作用は局所的である。
線形および非線形成分はステップワイズ選択アルゴリズムによって区別され、相互作用群は加法分離基準を適用して慎重に検証される。
実験の結果、ニューラルネットワーク添加モデルの一般化された手袋は、最も単純なアーキテクチャで最適な精度を提供し、機械学習に対して高精度で透明で説明可能なアプローチを可能にする。
関連論文リスト
- IGANN Sparse: Bridging Sparsity and Interpretability with Non-linear Insight [4.010646933005848]
IGANN Sparseは、一般化された加法モデルのファミリーから生まれた、新しい機械学習モデルである。
トレーニング中の非線形特徴選択プロセスを通じて、スパシティを促進する。
これにより、予測性能を犠牲にすることなく、モデル空間の改善による解釈可能性を保証する。
論文 参考訳(メタデータ) (2024-03-17T22:44:36Z) - The Contextual Lasso: Sparse Linear Models via Deep Neural Networks [5.607237982617641]
本研究では,空間的特徴の関数として空間的パターンと係数が変化するような説明的特徴に疎線形モデルに適合する新しい統計的推定器を開発する。
実データと合成データに関する広範な実験は、学習されたモデルは、非常に透明であり、通常のラッソよりもスペーサーであることを示している。
論文 参考訳(メタデータ) (2023-02-02T05:00:29Z) - Monotonic Neural Additive Models: Pursuing Regulated Machine Learning
Models for Credit Scoring [1.90365714903665]
本稿では,ニューラルネットワークアーキテクチャを簡素化し,モノトニック性を強制することによって,規制要件を満たす新しいモノトニックニューラルネットワークモデルを提案する。
我々の新しいモデルは、ブラックボックスの完全接続ニューラルネットワークと同じくらい正確であり、高度に正確で規制された機械学習方法を提供する。
論文 参考訳(メタデータ) (2022-09-21T02:14:09Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。