論文の概要: Tensor Product Neural Networks for Functional ANOVA Model
- arxiv url: http://arxiv.org/abs/2502.15215v2
- Date: Mon, 24 Feb 2025 02:53:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 12:07:53.329219
- Title: Tensor Product Neural Networks for Functional ANOVA Model
- Title(参考訳): 関数型ANOVAモデルのためのテンソル積ニューラルネットワーク
- Authors: Seokhun Park, Insung Kong, Yongchan Choi, Chanmoo Park, Yongdai Kim,
- Abstract要約: 機械学習モデルの複雑化に伴い、機械学習モデルの解釈可能性の重要性が増している。
本稿では,ANOVAのユニークな分解を保証し,各コンポーネントを安定して推定できる新しい解釈可能なモデルを提案する。
実験により、ANOVA-NODEは各コンポーネントのより安定した評価を提供し、トレーニングデータとモデルパラメータの初期値が変化するとき、より安定した解釈を提供することを示した。
- 参考スコア(独自算出の注目度): 2.7227970740933674
- License:
- Abstract: Interpretability for machine learning models is becoming more and more important as machine learning models become more complex. The functional ANOVA model, which decomposes a high-dimensional function into a sum of lower dimensional functions so called components, is one of the most popular tools for interpretable AI, and recently, various neural network models have been developed for estimating each component in the functional ANOVA model. However, such neural networks are highly unstable when estimating components since the components themselves are not uniquely defined. That is, there are multiple functional ANOVA decompositions for a given function. In this paper, we propose a novel interpretable model which guarantees a unique functional ANOVA decomposition and thus is able to estimate each component stably. We call our proposed model ANOVA-NODE since it is a modification of Neural Oblivious Decision Ensembles (NODE) for the functional ANOVA model. Theoretically, we prove that ANOVA-NODE can approximate a smooth function well. Additionally, we experimentally show that ANOVA-NODE provides much more stable estimation of each component and thus much more stable interpretation when training data and initial values of the model parameters vary than existing neural network models do.
- Abstract(参考訳): 機械学習モデルの複雑化に伴い、機械学習モデルの解釈可能性の重要性がますます重要になっている。
高次元関数をコンポーネントと呼ばれる低次元関数の和に分解する機能的ANOVAモデルは、AIを解釈する最も一般的なツールの1つであり、近年、機能的ANOVAモデルの各コンポーネントを推定するための様々なニューラルネットワークモデルが開発されている。
しかし、そのようなニューラルネットワークは、コンポーネント自体が一意に定義されていないため、コンポーネントを推定する際に非常に不安定である。
すなわち、与えられた関数に対して複数の機能的ANOVA分解が存在する。
本稿では,ANOVAのユニークな分解を保証し,各コンポーネントを安定して推定できる新しい解釈可能なモデルを提案する。
提案するモデルANOVA-NODEは,機能的ANOVAモデルに対するニューラルオブリビウス決定アンサンブル(NODE)の修正であるため,提案するモデルANOVA-NODEと呼ぶ。
理論的には、ANOVA-NODE が滑らかな関数をうまく近似できることを示す。
さらに、ANOVA-NODEは各コンポーネントを安定的に推定し、トレーニングデータとモデルパラメータの初期値が既存のニューラルネットワークモデルよりもはるかに安定的に解釈できることを実験的に示す。
関連論文リスト
- Neural-ANOVA: Model Decomposition for Interpretable Machine Learning [2.321323878201932]
本稿では,ニューラルネットワークをガラス箱モデルに分解するアプローチであるNeural-ANOVAを紹介する。
本手法は,積分の迅速かつクローズドな評価を可能にする学習問題を定式化する。
論文 参考訳(メタデータ) (2024-08-22T11:55:43Z) - META-ANOVA: Screening interactions for interpretable machine learning [4.047495522208112]
我々はメタアノバと呼ばれる新しい手法を開発し、任意の予測モデルに対して解釈可能なモデルを提供する。
Meta-ANOVAの新たな技術的貢献は、与えられたブラックボックスモデルを機能的ANOVAモデルに変換する前に不要な相互作用をスクリーニングする手順である。
論文 参考訳(メタデータ) (2024-08-02T01:49:29Z) - Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems [49.2319247825857]
拡散に基づく生成モデルは、ニューラル演算子に好適な多くの特性を示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
論文 参考訳(メタデータ) (2024-05-11T21:23:55Z) - Statistical Aspects of SHAP: Functional ANOVA for Model Interpretation [0.456877715768796]
SHAP近似の課題は、特徴分布の選択と推定されるANOVAの2ドル$ANOVAの項数に大きく関係していることが示される。
機械学習の説明可能性と感度分析の関連性は、このケースでは明らかにされているが、実際的な結果は明らかではない。
論文 参考訳(メタデータ) (2022-08-21T21:46:15Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Learning identifiable and interpretable latent models of
high-dimensional neural activity using pi-VAE [10.529943544385585]
本稿では,潜在モデルと従来のニューラルエンコーディングモデルから重要な要素を統合する手法を提案する。
我々の手法であるpi-VAEは、同定可能な変分自動エンコーダの最近の進歩にインスパイアされている。
人工データを用いてpi-VAEを検証し,それをラット海馬およびマカク運動野の神経生理学的データセットの解析に応用した。
論文 参考訳(メタデータ) (2020-11-09T22:00:38Z) - Online Tensor-Based Learning for Multi-Way Data [1.0953917735844645]
オンラインの$CANDECOMP/PARAFAC$分解のために、新しい効率的なテンソルベースの特徴抽出法NeSGDが提案されている。
その結果,提案手法は分類誤り率を大幅に改善し,時間とともに正のデータ分布の変化を同化することができ,全てのケーススタディにおいて高い予測精度を維持した。
論文 参考訳(メタデータ) (2020-03-10T02:04:08Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。