論文の概要: Dependence model assessment and selection with DecoupleNets
- arxiv url: http://arxiv.org/abs/2202.03406v1
- Date: Mon, 7 Feb 2022 18:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:44:48.657100
- Title: Dependence model assessment and selection with DecoupleNets
- Title(参考訳): DeoupleNetによる依存モデル評価と選択
- Authors: Marius Hofert, Avinash Prasad, Mu Zhu
- Abstract要約: ニューラルネットワークは、基礎となる依存構造を持つ$d$次元サンプルからマップを学ぶために提案される。
このマップはDecoupleNetと呼ばれ、依存モデルの評価と選択に使われている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are suggested for learning a map from $d$-dimensional samples
with any underlying dependence structure to multivariate uniformity in $d'$
dimensions. This map, termed DecoupleNet, is used for dependence model
assessment and selection. If the data-generating dependence model was known,
and if it was among the few analytically tractable ones, one such
transformation for $d'=d$ is Rosenblatt's transform. DecoupleNets only require
an available sample and are applicable to $d'<d$, in particular $d'=2$. This
allows for simpler model assessment and selection without loss of information,
both numerically and, because $d'=2$, graphically. Through simulation studies
based on data from various copulas, the feasibility and validity of this novel
approach is demonstrated. Applications to real world data illustrate its
usefulness for model assessment and selection.
- Abstract(参考訳): ニューラルネットワークは、基礎となる依存構造を持つ$d$次元のサンプルから$d'$次元の多変量一様性へのマップを学ぶために提案されている。
このマップはDecoupleNetと呼ばれ、依存モデルの評価と選択に使われている。
データ生成依存モデルが知られ、それが数少ない解析的扱いやすいモデルであるなら、$d'=d$ の変換の一つはローゼンブラット変換である。
DecoupleNetsは利用可能なサンプルのみを必要とし、$d'<d$、特に$d'=2$に適用できる。
これにより、数値的にもグラフィカルに$d'=2$なので、情報を失うことなく、よりシンプルなモデル評価と選択が可能になる。
各種コーパスのデータに基づくシミュレーション研究を通じて,本手法の有効性と妥当性を実証した。
実世界データへの応用は、モデル評価と選択にその有用性を示している。
関連論文リスト
- An Interpretable Evaluation of Entropy-based Novelty of Generative Models [36.29214321258605]
生成モデルのモードベースノベルティを定量化するために,カーネルベースのエントロピーノベルティ(KEN)スコアを提案する。
合成および実画像データセットの数値計算結果から,新しいモードの検出におけるフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2024-02-27T08:00:52Z) - Towards Sobolev Pruning [0.0]
本稿では,学習および刈り取り過程を通じて感度情報を用いて代理モデルを見つけることを提案する。
本研究は,近年のソボレフ訓練の進歩と相まって,インターバル・アジョイント・重要度分析を用いて作業を構築している。
ブラウン運動を持つ微分方程式をモデルとした多次元オプションの価格設定の例について実験的に検討した。
論文 参考訳(メタデータ) (2023-12-06T14:13:30Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Context-aware Bayesian Mixed Multinomial Logit Model [7.992550355579791]
混合多項ロジットモデルは、異なる選択状況を通して意思決定者の一定の選好パラメータを仮定する。
本稿では,コンテキスト対応型ベイズ混合ロジットモデルの概念を提案する。
ニューラルネットワークは、各選択機会における各個人の嗜好パラメータの解釈可能なシフトにコンテキスト情報をマッピングする。
論文 参考訳(メタデータ) (2022-10-11T19:06:42Z) - A Statistical-Modelling Approach to Feedforward Neural Network Model Selection [0.8287206589886881]
フィードフォワードニューラルネットワーク(FNN)は非線形回帰モデルと見なすことができる。
FNNのためのベイズ情報基準(BIC)を用いて,新しいモデル選択法を提案する。
サンプル外性能よりもBICを選択することは、真のモデルを回復する確率を増大させる。
論文 参考訳(メタデータ) (2022-07-09T11:07:04Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Datamodels: Predicting Predictions from Training Data [86.66720175866415]
本稿では,モデルクラスの振る舞いを学習データの観点から分析するための概念的枠組みであるデータモデリングについて述べる。
単純な線形データモデルであっても、モデル出力をうまく予測できることが示される。
論文 参考訳(メタデータ) (2022-02-01T18:15:24Z) - Latent Time Neural Ordinary Differential Equations [0.2538209532048866]
本研究では,NODE における不確実性をモデル化するための新しい手法を提案する。
また、各データポイントが終末時間に異なる後続分布を持つことができる適応遅延時間NODE(ALT-NODE)を提案する。
本研究では,合成画像と実世界の画像分類データを用いた実験により,不確実性とロバスト性をモデル化する手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-12-23T17:31:47Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - On the Difference Between the Information Bottleneck and the Deep
Information Bottleneck [81.89141311906552]
本稿では,Deep Variational Information Bottleneckとその導出に必要な仮定について再考する。
後者のマルコフ連鎖のみを満たすべき$I(T;Y)$に対して下界を最適化することで、この制限を回避する方法を示す。
論文 参考訳(メタデータ) (2019-12-31T18:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。