論文の概要: Tensor Product Neural Networks for Functional ANOVA Model
- arxiv url: http://arxiv.org/abs/2502.15215v3
- Date: Fri, 28 Feb 2025 15:00:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 14:31:44.189321
- Title: Tensor Product Neural Networks for Functional ANOVA Model
- Title(参考訳): 関数型ANOVAモデルのためのテンソル積ニューラルネットワーク
- Authors: Seokhun Park, Insung Kong, Yongchan Choi, Chanmoo Park, Yongdai Kim,
- Abstract要約: 機械学習モデルの複雑化に伴い、機械学習モデルの解釈可能性の重要性が増している。
高次元関数を低次元関数の和に分解する機能的ANOVAモデルは、AIを解釈する最も一般的なツールの1つである。
本稿では,ANOVAのユニークな分解を保証し,各成分を安定かつ正確に推定できるニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 2.7227970740933674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability for machine learning models is becoming more and more important as machine learning models become more complex. The functional ANOVA model, which decomposes a high-dimensional function into a sum of lower dimensional functions (commonly referred to as components), is one of the most popular tools for interpretable AI, and recently, various neural networks have been developed for estimating each component in the functional ANOVA model. However, such neural networks are highly unstable when estimating each component since the components themselves are not uniquely defined. That is, there are multiple functional ANOVA decompositions for a given function. In this paper, we propose a novel neural network which guarantees a unique functional ANOVA decomposition and thus is able to estimate each component stably and accurately. We call our proposed neural network ANOVA Tensor Product Neural Network (ANOVA-TPNN) since it is motivated by the tensor product basis expansion. Theoretically, we prove that ANOVA-TPNN can approximate any smooth function well. Empirically, we show that ANOVA-TPNN provide much more stable estimation of each component and thus much more stable interpretation when training data and initial values of the model parameters vary than existing neural networks do.
- Abstract(参考訳): 機械学習モデルの複雑化に伴い、機械学習モデルの解釈可能性の重要性がますます重要になっている。
高次元関数を低次元関数の和(一般にコンポーネントと呼ばれる)に分解する機能的ANOVAモデルは、AIを解釈する最も一般的なツールの1つであり、近年、機能的ANOVAモデルの各コンポーネントを推定するための様々なニューラルネットワークが開発されている。
しかし、そのようなニューラルネットワークは、コンポーネント自体が一意に定義されていないため、各コンポーネントを推定する際に非常に不安定である。
すなわち、与えられた関数に対して複数の機能的ANOVA分解が存在する。
本稿では,ANOVAのユニークな分解を保証し,各成分を安定かつ正確に推定できるニューラルネットワークを提案する。
提案するニューラルネットワークをANOVA-TPNN(Tensor Product Neural Network)と呼ぶ。
理論的には、ANOVA-TPNNが任意の滑らかな関数をうまく近似できることを示す。
実験により、ANOVA-TPNNは各コンポーネントのより安定した評価を提供し、トレーニングデータとモデルパラメータの初期値が既存のニューラルネットワークよりもはるかに安定した解釈を提供することを示した。
関連論文リスト
- Neural-ANOVA: Model Decomposition for Interpretable Machine Learning [2.321323878201932]
本稿では,ニューラルネットワークをガラス箱モデルに分解するアプローチであるNeural-ANOVAを紹介する。
本手法は,積分の迅速かつクローズドな評価を可能にする学習問題を定式化する。
論文 参考訳(メタデータ) (2024-08-22T11:55:43Z) - META-ANOVA: Screening interactions for interpretable machine learning [4.047495522208112]
我々はメタアノバと呼ばれる新しい手法を開発し、任意の予測モデルに対して解釈可能なモデルを提供する。
Meta-ANOVAの新たな技術的貢献は、与えられたブラックボックスモデルを機能的ANOVAモデルに変換する前に不要な相互作用をスクリーニングする手順である。
論文 参考訳(メタデータ) (2024-08-02T01:49:29Z) - Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems [49.2319247825857]
拡散に基づく生成モデルは、ニューラル演算子に好適な多くの特性を示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
論文 参考訳(メタデータ) (2024-05-11T21:23:55Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Functional Neural Networks: Shift invariant models for functional data
with applications to EEG classification [0.0]
我々は、データのスムーズさを保ちながら不変な新しいタイプのニューラルネットワークを導入する:関数型ニューラルネットワーク(FNN)
そこで我々は,多層パーセプトロンと畳み込みニューラルネットワークを機能データに拡張するために,機能データ分析(FDA)の手法を用いる。
脳波(EEG)データの分類にFNNをうまく利用し,FDAのベンチマークモデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-01-14T09:41:21Z) - Smooth Mathematical Function from Compact Neural Networks [0.0]
NNは、非常に正確で、非常にスムーズな関数を生成します。
新しいアクティベーション関数,メタバッチ法,数値データの特徴,メタパラメータを用いたメタ拡張について述べる。
論文 参考訳(メタデータ) (2022-12-31T11:33:24Z) - Bayesian Learning of Coupled Biogeochemical-Physical Models [28.269731698116257]
海洋生態系の予測モデルは、様々なニーズに使われている。
希少な測定と海洋プロセスの理解が限られているため、かなりの不確実性がある。
候補モデルの空間での処理と新しいモデルの発見を可能にするベイズモデル学習手法を開発した。
論文 参考訳(メタデータ) (2022-11-12T17:49:18Z) - Statistical Aspects of SHAP: Functional ANOVA for Model Interpretation [0.456877715768796]
SHAP近似の課題は、特徴分布の選択と推定されるANOVAの2ドル$ANOVAの項数に大きく関係していることが示される。
機械学習の説明可能性と感度分析の関連性は、このケースでは明らかにされているが、実際的な結果は明らかではない。
論文 参考訳(メタデータ) (2022-08-21T21:46:15Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Fully differentiable model discovery [0.0]
ニューラルネットワークに基づくサロゲートとスパースベイズ学習を組み合わせたアプローチを提案する。
我々の研究は、PINNを様々なタイプのニューラルネットワークアーキテクチャに拡張し、ニューラルネットワークベースのサロゲートをベイズパラメータ推論のリッチフィールドに接続する。
論文 参考訳(メタデータ) (2021-06-09T08:11:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Learning of Discrete Graphical Models with Neural Networks [15.171938155576566]
グラフィカルモデル学習のためのニューラルネットベースのアルゴリズムNeurISEを紹介する。
NeurISEは、真のモデルのエネルギー関数が高次であるとき、GRISEのより良い代替品であると考えられている。
また、実モデルの全エネルギー関数に対するニューラルネット表現の学習に使用できるNeurISEの変種を示す。
論文 参考訳(メタデータ) (2020-06-21T23:34:01Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z) - Online Tensor-Based Learning for Multi-Way Data [1.0953917735844645]
オンラインの$CANDECOMP/PARAFAC$分解のために、新しい効率的なテンソルベースの特徴抽出法NeSGDが提案されている。
その結果,提案手法は分類誤り率を大幅に改善し,時間とともに正のデータ分布の変化を同化することができ,全てのケーススタディにおいて高い予測精度を維持した。
論文 参考訳(メタデータ) (2020-03-10T02:04:08Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。