論文の概要: Deep Conditional Transformation Models
- arxiv url: http://arxiv.org/abs/2010.07860v4
- Date: Tue, 6 Apr 2021 17:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:15:43.619475
- Title: Deep Conditional Transformation Models
- Title(参考訳): 深部条件変換モデル
- Authors: Philipp F.M. Baumann, Torsten Hothorn and David R\"ugamer
- Abstract要約: 特徴集合上の結果変数条件の累積分布関数(CDF)を学習することは依然として困難である。
条件変換モデルは、条件付きCDFの大規模なクラスをモデル化できる半パラメトリックなアプローチを提供する。
我々は,新しいネットワークアーキテクチャを提案し,異なるモデル定義の詳細を提供し,適切な制約を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning the cumulative distribution function (CDF) of an outcome variable
conditional on a set of features remains challenging, especially in
high-dimensional settings. Conditional transformation models provide a
semi-parametric approach that allows to model a large class of conditional CDFs
without an explicit parametric distribution assumption and with only a few
parameters. Existing estimation approaches within this class are, however,
either limited in their complexity and applicability to unstructured data
sources such as images or text, lack interpretability, or are restricted to
certain types of outcomes. We close this gap by introducing the class of deep
conditional transformation models which unifies existing approaches and allows
to learn both interpretable (non-)linear model terms and more complex neural
network predictors in one holistic framework. To this end we propose a novel
network architecture, provide details on different model definitions and derive
suitable constraints as well as network regularization terms. We demonstrate
the efficacy of our approach through numerical experiments and applications.
- Abstract(参考訳): 特徴集合上の結果変数条件の累積分布関数(CDF)を学習することは、特に高次元設定において困難である。
条件変換モデルは、明示的なパラメトリック分布仮定を必要とせず、少数のパラメータしか持たない条件付きCDFの大規模なクラスをモデル化できる半パラメトリックなアプローチを提供する。
しかしながら、このクラス内の既存の推定アプローチは、画像やテキストのような非構造化データソースの複雑さと適用性に制限があるか、解釈可能性に欠けているか、あるいは特定の種類の結果に制限されている。
既存のアプローチを統一し、解釈可能な(非線形でない)モデル用語と、より複雑なニューラルネットワーク予測器の両方を1つの全体的フレームワークで学べる、深層条件変換モデルのクラスを導入することで、このギャップを埋める。
そこで我々は,新しいネットワークアーキテクチャを提案し,異なるモデル定義の詳細を提供し,適切な制約とネットワーク正規化項を導出する。
本手法の有効性を数値実験と応用により実証する。
関連論文リスト
- On uniqueness in structured model learning [0.542249320079018]
偏微分方程式系(PDE)の物理法則学習における一意性の問題に対処する。
構造化されたモデル学習のフレームワークとして、データから学習されるコンポーネントによって、既存のほぼ正しい物理モデルが強化される。
この一意性の結果は、完全なノイズレス測定の理想的な設定において、未知のモデル成分のユニークな識別が可能であることを示している。
論文 参考訳(メタデータ) (2024-10-29T12:56:39Z) - Solving Inverse Problems with Model Mismatch using Untrained Neural Networks within Model-based Architectures [14.551812310439004]
モデルベースアーキテクチャでは,各インスタンスの計測領域におけるデータの一貫性を一致させるために,トレーニングされていないフォワードモデル残差ブロックを導入する。
提案手法は,パラメータ感受性が低く,追加データを必要としない統一解を提供し,前方モデルの同時適用と1パスの再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-07T19:02:13Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Federated Variational Inference Methods for Structured Latent Variable
Models [1.0312968200748118]
フェデレートされた学習方法は、データが元の場所を離れることなく、分散データソースをまたいだモデルトレーニングを可能にする。
本稿では,ベイズ機械学習において広く用いられている構造的変分推論に基づく汎用的でエレガントな解を提案する。
また、標準FedAvgアルゴリズムに類似した通信効率のよい変種も提供する。
論文 参考訳(メタデータ) (2023-02-07T08:35:04Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Probabilistic partition of unity networks for high-dimensional
regression problems [1.0227479910430863]
我々は高次元回帰問題におけるユニタリネットワーク(PPOU-Net)モデルの分割について検討する。
本稿では適応次元の減少に着目した一般的な枠組みを提案する。
PPOU-Netsは、数値実験において、同等の大きさのベースライン完全接続ニューラルネットワークを一貫して上回っている。
論文 参考訳(メタデータ) (2022-10-06T06:01:36Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。