論文の概要: An interpretable neural network-based non-proportional odds model for
ordinal regression
- arxiv url: http://arxiv.org/abs/2303.17823v4
- Date: Mon, 11 Mar 2024 23:28:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 02:26:00.527823
- Title: An interpretable neural network-based non-proportional odds model for
ordinal regression
- Title(参考訳): 順序回帰のための解釈可能なニューラルネットワークに基づく非確率オッズモデル
- Authors: Akifumi Okuno, Kazuharu Harada
- Abstract要約: 本研究では,直交回帰のための解釈可能なニューラルネットワークに基づく非局所奇数モデル(N$3$POM)を提案する。
N$3$POMは、正規回帰に対する従来のアプローチとはいくつかの点で異なる。
- 参考スコア(独自算出の注目度): 3.0277213703725767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes an interpretable neural network-based non-proportional
odds model (N$^3$POM) for ordinal regression. N$^3$POM is different from
conventional approaches to ordinal regression with non-proportional models in
several ways: (1) N$^3$POM is defined for both continuous and discrete
responses, whereas standard methods typically treat the ordered continuous
variables as if they are discrete, (2) instead of estimating response-dependent
finite-dimensional coefficients of linear models from discrete responses as is
done in conventional approaches, we train a non-linear neural network to serve
as a coefficient function. Thanks to the neural network, N$^3$POM offers
flexibility while preserving the interpretability of conventional ordinal
regression. We establish a sufficient condition under which the predicted
conditional cumulative probability locally satisfies the monotonicity
constraint over a user-specified region in the covariate space. Additionally,
we provide a monotonicity-preserving stochastic (MPS) algorithm for effectively
training the neural network. We apply N$^3$POM to several real-world datasets.
- Abstract(参考訳): 本研究では,順序回帰のための解釈可能なニューラルネットワークに基づく非確率オッズモデル(n$^3$pom)を提案する。
N$^3$POM is different from conventional approaches to ordinal regression with non-proportional models in several ways: (1) N$^3$POM is defined for both continuous and discrete responses, whereas standard methods typically treat the ordered continuous variables as if they are discrete, (2) instead of estimating response-dependent finite-dimensional coefficients of linear models from discrete responses as is done in conventional approaches, we train a non-linear neural network to serve as a coefficient function.
ニューラルネットワークのおかげで、N$^3$POMは従来の順序回帰の解釈可能性を維持しながら柔軟性を提供する。
予測条件累積確率が共変量空間におけるユーザ特定領域上の単調性制約を局所的に満足する十分条件を確立する。
さらに、ニューラルネットワークを効果的に訓練するための単調性保存確率(MPS)アルゴリズムを提供する。
いくつかの実世界のデータセットにN$^3$POMを適用する。
関連論文リスト
- Function-Space Regularization in Neural Networks: A Probabilistic
Perspective [51.133793272222874]
所望の予測関数に関する情報をニューラルネットワークトレーニングに明示的にエンコードできる、モチベーションの高い正規化手法を導出できることが示される。
本手法の有効性を実証的に評価し,提案手法がほぼ完全なセマンティックシフト検出と高度に校正された予測不確実性推定に繋がることを示す。
論文 参考訳(メタデータ) (2023-12-28T17:50:56Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Learning Theory of Distribution Regression with Neural Networks [6.961253535504979]
完全連結ニューラルネットワーク(FNN)による近似理論と分布回帰の学習理論を確立する。
古典回帰法とは対照的に、分布回帰の入力変数は確率測度である。
論文 参考訳(メタデータ) (2023-07-07T09:49:11Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - DeepBayes -- an estimator for parameter estimation in stochastic
nonlinear dynamical models [11.917949887615567]
本研究では,DeepBayes推定器を提案する。
ディープリカレントニューラルネットワークアーキテクチャはオフラインでトレーニングでき、推論中にかなりの時間を節約できる。
提案手法の異なる実例モデルへの適用性を実証し, 最先端手法との詳細な比較を行う。
論文 参考訳(メタデータ) (2022-05-04T18:12:17Z) - Regularized Sequential Latent Variable Models with Adversarial Neural
Networks [33.74611654607262]
逐次データの変動をモデル化するために,RNN で高レベル潜時確率変数を使用する方法を提案する。
変動RNNモデルの学習に逆法を用いる可能性を探る。
論文 参考訳(メタデータ) (2021-08-10T08:05:14Z) - PI3NN: Prediction intervals from three independently trained neural
networks [4.714371905733244]
本稿では,3つの独立学習ニューラルネットワークから予測平均値,下限,上限の予測区間を学習するための新しい予測区間法を提案する。
本手法では,データに対する分布仮定は必要とせず,ニューラルネットワークモデルや損失関数に異常なハイパーパラメータを導入することはない。
ベンチマーク回帰問題に対する数値実験により,本手法は予測的不確実性,頑健性,分布外サンプルの同定において,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-08-05T00:55:20Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。