論文の概要: Deep Conditional Transformation Models
- arxiv url: http://arxiv.org/abs/2010.07860v4
- Date: Tue, 6 Apr 2021 17:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:15:43.619475
- Title: Deep Conditional Transformation Models
- Title(参考訳): 深部条件変換モデル
- Authors: Philipp F.M. Baumann, Torsten Hothorn and David R\"ugamer
- Abstract要約: 特徴集合上の結果変数条件の累積分布関数(CDF)を学習することは依然として困難である。
条件変換モデルは、条件付きCDFの大規模なクラスをモデル化できる半パラメトリックなアプローチを提供する。
我々は,新しいネットワークアーキテクチャを提案し,異なるモデル定義の詳細を提供し,適切な制約を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning the cumulative distribution function (CDF) of an outcome variable
conditional on a set of features remains challenging, especially in
high-dimensional settings. Conditional transformation models provide a
semi-parametric approach that allows to model a large class of conditional CDFs
without an explicit parametric distribution assumption and with only a few
parameters. Existing estimation approaches within this class are, however,
either limited in their complexity and applicability to unstructured data
sources such as images or text, lack interpretability, or are restricted to
certain types of outcomes. We close this gap by introducing the class of deep
conditional transformation models which unifies existing approaches and allows
to learn both interpretable (non-)linear model terms and more complex neural
network predictors in one holistic framework. To this end we propose a novel
network architecture, provide details on different model definitions and derive
suitable constraints as well as network regularization terms. We demonstrate
the efficacy of our approach through numerical experiments and applications.
- Abstract(参考訳): 特徴集合上の結果変数条件の累積分布関数(CDF)を学習することは、特に高次元設定において困難である。
条件変換モデルは、明示的なパラメトリック分布仮定を必要とせず、少数のパラメータしか持たない条件付きCDFの大規模なクラスをモデル化できる半パラメトリックなアプローチを提供する。
しかしながら、このクラス内の既存の推定アプローチは、画像やテキストのような非構造化データソースの複雑さと適用性に制限があるか、解釈可能性に欠けているか、あるいは特定の種類の結果に制限されている。
既存のアプローチを統一し、解釈可能な(非線形でない)モデル用語と、より複雑なニューラルネットワーク予測器の両方を1つの全体的フレームワークで学べる、深層条件変換モデルのクラスを導入することで、このギャップを埋める。
そこで我々は,新しいネットワークアーキテクチャを提案し,異なるモデル定義の詳細を提供し,適切な制約とネットワーク正規化項を導出する。
本手法の有効性を数値実験と応用により実証する。
関連論文リスト
- Solving Inverse Problems with Model Mismatch using Untrained Neural
Networks within Model-based Architectures [15.896809554085973]
モデルベースアーキテクチャでは,各インスタンスの計測領域におけるデータの一貫性を一致させるために,トレーニングされていないフォワードモデル残差ブロックを導入する。
実験では、アーティファクトの削除と3つの異なるアプリケーションにわたる詳細の保存において、大幅な品質改善が示されている。
論文 参考訳(メタデータ) (2024-03-07T19:02:13Z) - Projected Generative Diffusion Models for Constraint Satisfaction [51.957984732779245]
生成拡散モデルは、逐次過程を通じて生ノイズからコヒーレントな内容の合成に優れる。
本稿では,従来の拡散サンプリングを制約最適化経路に再キャストすることで,これらの課題を克服することを目的とする。
論文 参考訳(メタデータ) (2024-02-05T22:18:16Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field
and Online Inference [50.91823345296243]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Federated Variational Inference Methods for Structured Latent Variable
Models [1.0312968200748118]
フェデレートされた学習方法は、データが元の場所を離れることなく、分散データソースをまたいだモデルトレーニングを可能にする。
本稿では,ベイズ機械学習において広く用いられている構造的変分推論に基づく汎用的でエレガントな解を提案する。
また、標準FedAvgアルゴリズムに類似した通信効率のよい変種も提供する。
論文 参考訳(メタデータ) (2023-02-07T08:35:04Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Probabilistic partition of unity networks for high-dimensional
regression problems [1.0227479910430863]
我々は高次元回帰問題におけるユニタリネットワーク(PPOU-Net)モデルの分割について検討する。
本稿では適応次元の減少に着目した一般的な枠組みを提案する。
PPOU-Netsは、数値実験において、同等の大きさのベースライン完全接続ニューラルネットワークを一貫して上回っている。
論文 参考訳(メタデータ) (2022-10-06T06:01:36Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Conditional independence by typing [30.194205448457385]
確率型プログラミング言語(PPL)の中心的な目標は、推論からモデリングを分離することである。
パラメータ間の条件独立(CI)関係は確率論的モデルの重要な側面である。
システム内の十分に型付けされたプログラムでは、その実装するディストリビューションは特定のCI関連性を持つことが保証されている。
論文 参考訳(メタデータ) (2020-10-22T17:27:22Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。