論文の概要: Bayesian Neural Networks for Functional ANOVA model
- arxiv url: http://arxiv.org/abs/2510.00545v1
- Date: Wed, 01 Oct 2025 06:04:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.404181
- Title: Bayesian Neural Networks for Functional ANOVA model
- Title(参考訳): 機能的ANOVAモデルのためのベイズニューラルネットワーク
- Authors: Seokhun Park, Choeun Kim, Jihu Lee, Yunseop Shin, Insung Kong, Yongdai Kim,
- Abstract要約: ANOVA分解は高次元関数を低次元成分に分解するための基本ツールである。
TPNNは、ANOVA-TPNNと呼ばれる機能的ANOVAモデルの基盤関数として開発され、応用されている。
本研究では,TPNN基底関数を持つ機能的ANOVAモデルのベイズ推論手法であるBayesian-TPNNを提案する。
- 参考スコア(独自算出の注目度): 11.818070093552064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing demand for interpretability in machine learning, functional ANOVA decomposition has gained renewed attention as a principled tool for breaking down high-dimensional function into low-dimensional components that reveal the contributions of different variable groups. Recently, Tensor Product Neural Network (TPNN) has been developed and applied as basis functions in the functional ANOVA model, referred to as ANOVA-TPNN. A disadvantage of ANOVA-TPNN, however, is that the components to be estimated must be specified in advance, which makes it difficult to incorporate higher-order TPNNs into the functional ANOVA model due to computational and memory constraints. In this work, we propose Bayesian-TPNN, a Bayesian inference procedure for the functional ANOVA model with TPNN basis functions, enabling the detection of higher-order components with reduced computational cost compared to ANOVA-TPNN. We develop an efficient MCMC algorithm and demonstrate that Bayesian-TPNN performs well by analyzing multiple benchmark datasets. Theoretically, we prove that the posterior of Bayesian-TPNN is consistent.
- Abstract(参考訳): 機械学習における解釈可能性の増大に伴い,高次元関数を低次元成分に分解する基本ツールとして,機能的ANOVA分解が注目されるようになった。
近年、ANOVA-TPNNと呼ばれる機能的ANOVAモデルの基盤関数として、Tensor Product Neural Network (TPNN) が開発され、応用されている。
しかし、ANOVA-TPNNの欠点は、推定されるコンポーネントを事前に指定する必要があることであり、計算とメモリの制約により高次TPNNを機能的ANOVAモデルに組み込むことが困難である。
本研究では,関数型ANOVAモデルのベイズ的推論手法であるBayesian-TPNNを提案する。
我々は,効率的なMCMCアルゴリズムを開発し,ベイジアン-TPNNが複数のベンチマークデータセットを解析することによってよく動作することを示す。
理論的には,ベイジアン・TPNNの後部は一貫している。
関連論文リスト
- Tensor Product Neural Networks for Functional ANOVA Model [2.7227970740933674]
機械学習モデルの複雑化に伴い、機械学習モデルの解釈可能性の重要性が増している。
高次元関数を低次元関数の和に分解する機能的ANOVAモデルは、AIを解釈する最も一般的なツールの1つである。
本稿では,ANOVAのユニークな分解を保証し,各成分を安定かつ正確に推定できるニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2025-02-21T05:15:38Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Information Bottleneck Analysis of Deep Neural Networks via Lossy Compression [37.69303106863453]
Information Bottleneck(IB)原則は、ディープニューラルネットワーク(DNN)のトレーニングプロセスを分析するための情報理論フレームワークを提供する。
本稿では,一般NNのICB解析を行うためのフレームワークを提案する。
また,MI力学の新たな特徴を明らかにするため,実規模に近いISB解析を行う。
論文 参考訳(メタデータ) (2023-05-13T21:44:32Z) - coVariance Neural Networks [119.45320143101381]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ内の相互関係を利用して学習する効果的なフレームワークである。
我々は、サンプル共分散行列をグラフとして扱う、共分散ニューラルネットワーク(VNN)と呼ばれるGNNアーキテクチャを提案する。
VNN の性能は PCA ベースの統計手法よりも安定していることを示す。
論文 参考訳(メタデータ) (2022-05-31T15:04:43Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。