論文の概要: deepregression: a Flexible Neural Network Framework for Semi-Structured
Deep Distributional Regression
- arxiv url: http://arxiv.org/abs/2104.02705v1
- Date: Tue, 6 Apr 2021 17:56:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-04-07 14:16:15.803591
- Title: deepregression: a Flexible Neural Network Framework for Semi-Structured
Deep Distributional Regression
- Title(参考訳): deepregression:半構造化深分布回帰のためのフレキシブルニューラルネットワークフレームワーク
- Authors: David R\"ugamer, Ruolin Shen, Christina Bukas, Lisa Barros de Andrade
e Sousa, Dominik Thalmeier, Nadja Klein, Chris Kolb, Florian Pfisterer,
Philipp Kopper, Bernd Bischl, Christian L. M\"uller
- Abstract要約: Deepregressionは、それぞれディープラーニングライブラリとPyTorchを使用して、RとPythonの両方で実装されている。
Deepregressionは、それぞれディープラーニングライブラリとPyTorchを使用して、RとPythonの両方で実装されている。
- 参考スコア(独自算出の注目度): 1.4909973741292273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes the implementation of semi-structured deep
distributional regression, a flexible framework to learn distributions based on
a combination of additive regression models and deep neural networks.
deepregression is implemented in both R and Python, using the deep learning
libraries TensorFlow and PyTorch, respectively. The implementation consists of
(1) a modular neural network building system for the combination of various
statistical and deep learning approaches, (2) an orthogonalization cell to
allow for an interpretable combination of different subnetworks as well as (3)
pre-processing steps necessary to initialize such models. The software package
allows to define models in a user-friendly manner using distribution
definitions via a formula environment that is inspired by classical statistical
model frameworks such as mgcv. The packages' modular design and functionality
provides a unique resource for rapid and reproducible prototyping of complex
statistical and deep learning models while simultaneously retaining the
indispensable interpretability of classical statistical models.
- Abstract(参考訳): 本稿では,加法回帰モデルと深層ニューラルネットワークの組み合わせに基づく分布学習のための柔軟なフレームワークである半構造化深層分布回帰の実装について述べる。
Deepregressionはそれぞれ、ディープラーニングライブラリTensorFlowとPyTorchを使用して、RとPythonの両方で実装されている。
実装は,(1)様々な統計的・深層学習手法を組み合わせたモジュール型ニューラルネットワーク構築システム,(2)異なるサブネットワークの解釈可能な組み合わせを可能にする直交セル,(3)モデルの初期化に必要な前処理ステップで構成される。
ソフトウェアパッケージは、mgcvのような古典的な統計モデルフレームワークにインスパイアされた公式環境を介して、分布定義を使って、ユーザーフレンドリーな方法でモデルを定義することができる。
パッケージのモジュール設計と機能は、複雑な統計的および深層学習モデルの迅速かつ再現可能なプロトタイピングのためのユニークなリソースを提供すると同時に、古典的な統計モデルの必然的解釈性を同時に維持する。
関連論文リスト
- Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Data Summarization via Bilevel Optimization [48.89977988203108]
シンプルだが強力なアプローチは、小さなサブセットのデータを操作することだ。
本研究では,コアセット選択を基数制約付き双レベル最適化問題として定式化する汎用コアセットフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T09:08:38Z) - Provable Model-based Nonlinear Bandit and Reinforcement Learning: Shelve
Optimism, Embrace Virtual Curvature [61.22680308681648]
決定論的報酬を有する1層ニューラルネットバンディットにおいても,グローバル収束は統計的に難解であることを示す。
非線形バンディットとRLの両方に対して,オンラインモデル学習者による仮想アセンジ(Virtual Ascent with Online Model Learner)というモデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T12:41:56Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Struct-MMSB: Mixed Membership Stochastic Blockmodels with Interpretable
Structured Priors [13.712395104755783]
混合メンバシップブロックモデル(MMSB)は、コミュニティ検出とネットワーク生成のための一般的なフレームワークである。
最近開発された統計リレーショナル学習モデルであるヒンジロスマルコフ確率場(HL-MRF)を用いた柔軟なMMSBモデル、textitStruct-MMSBを提案する。
我々のモデルは、観測された特徴と会員分布の複雑な組み合わせとして符号化された有意義な潜伏変数を用いて、実世界のネットワークにおける潜伏特性を学習することができる。
論文 参考訳(メタデータ) (2020-02-21T19:32:32Z) - Semi-Structured Distributional Regression -- Extending Structured
Additive Models by Arbitrary Deep Neural Networks and Data Modalities [0.0]
本稿では、構造化回帰モデルとディープニューラルネットワークを統合ネットワークアーキテクチャに結合する一般的なフレームワークを提案する。
数値実験において,本フレームワークの有効性を実証し,ベンチマークや実世界の応用において,そのメリットを実証する。
論文 参考訳(メタデータ) (2020-02-13T21:01:26Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。