論文の概要: Differentiable and Scalable Generative Adversarial Models for Data
Imputation
- arxiv url: http://arxiv.org/abs/2201.03202v1
- Date: Mon, 10 Jan 2022 08:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 21:34:39.659908
- Title: Differentiable and Scalable Generative Adversarial Models for Data
Imputation
- Title(参考訳): データインプットのための微分可能かつスケーラブルな生成逆数モデル
- Authors: Yangyang Wu and Jun Wang and Xiaoye Miao and Wenjia Wang and Jianwei
Yin
- Abstract要約: SCISは2つのモジュールから構成される。DIMとサンプルサイズ推定(SSE)である。
複数の実生活大規模データセットを用いた実験により, 提案システムでは, 生成的対角モデルトレーニングを7.1倍高速化できることを示した。
- 参考スコア(独自算出の注目度): 24.111493826345082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data imputation has been extensively explored to solve the missing data
problem. The dramatically increasing volume of incomplete data makes the
imputation models computationally infeasible in many real-life applications. In
this paper, we propose an effective scalable imputation system named SCIS to
significantly speed up the training of the differentiable generative
adversarial imputation models under accuracy-guarantees for large-scale
incomplete data. SCIS consists of two modules, differentiable imputation
modeling (DIM) and sample size estimation (SSE). DIM leverages a new masking
Sinkhorn divergence function to make an arbitrary generative adversarial
imputation model differentiable, while for such a differentiable imputation
model, SSE can estimate an appropriate sample size to ensure the user-specified
imputation accuracy of the final model. Extensive experiments upon several
real-life large-scale datasets demonstrate that, our proposed system can
accelerate the generative adversarial model training by 7.1x. Using around 7.6%
samples, SCIS yields competitive accuracy with the state-of-the-art imputation
methods in a much shorter computation time.
- Abstract(参考訳): データ計算は、欠落したデータ問題を解決するために広く研究されてきた。
不完全なデータ量が劇的に増加すると、インプテーションモデルは多くの実生活のアプリケーションで計算不可能になる。
本稿では,大規模不完全データに対する精度保証下での識別可能な逆数計算モデルのトレーニングを著しく高速化する,SCISと呼ばれる効率的なスケーラブルな計算システムを提案する。
SCISは2つのモジュールから構成されており、DIMとサンプルサイズ推定(SSE)である。
DIMは、新しいマスキングシンクホーン発散関数を活用して、任意の生成逆計算モデルを微分可能とし、そのような微分可能なインプットモデルでは、SSEが適切なサンプルサイズを推定し、最終モデルのユーザが特定したインプット精度を確保する。
実生活における大規模データセットの大規模な実験により, 提案システムでは, 生成的対角モデルトレーニングを7.1倍高速化できることを示した。
約7.6%のサンプルを用いて、SCISはより短い計算時間で最先端の計算法と競合する精度を得る。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Stable Training of Probabilistic Models Using the Leave-One-Out Maximum Log-Likelihood Objective [0.7373617024876725]
カーネル密度推定(KDE)に基づくモデルは、このタスクの一般的な選択であるが、密度の異なるデータ領域に適応できない。
適応的なKDEモデルを用いてこれを回避し、モデル内の各カーネルは個別の帯域幅を持つ。
最適化速度を確実に高速化するために改良された期待最大化アルゴリズムを用いる。
論文 参考訳(メタデータ) (2023-10-05T14:08:42Z) - Neural parameter calibration for large-scale multi-agent models [0.7734726150561089]
本稿では,ニューラルネットワークを用いてパラメータの精度の高い確率密度を求める手法を提案する。
2つの組み合わせは、非常に大きなシステムであっても、モデルパラメータの密度を素早く見積もることができる強力なツールを作成する。
論文 参考訳(メタデータ) (2022-09-27T17:36:26Z) - RMFGP: Rotated Multi-fidelity Gaussian process with Dimension Reduction
for High-dimensional Uncertainty Quantification [12.826754199680474]
マルチフィデリティモデリングは、少量の正確なデータしか入手できない場合でも、正確な推測を可能にする。
高忠実度モデルと1つ以上の低忠実度モデルを組み合わせることで、多忠実度法は興味のある量の正確な予測を行うことができる。
本稿では,回転多要素ガウス過程の回帰に基づく新しい次元削減フレームワークとベイズ能動学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T01:20:35Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Data-driven Uncertainty Quantification in Computational Human Head
Models [0.6745502291821954]
現代の生物モデルシミュレーションは、非常に高い計算コストと高次元の入力と出力に関連付けられている。
本研究では、計算ヘッドモデルの不確実性定量化(UQ)のために、2段階のデータ駆動型学習ベースフレームワークを提案する。
代理モデルが計算モデルの高精度な近似を提供するとともに,計算コストを大幅に削減することを示した。
論文 参考訳(メタデータ) (2021-10-29T05:42:31Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - CSDI: Conditional Score-based Diffusion Models for Probabilistic Time
Series Imputation [107.63407690972139]
Conditional Score-based Diffusion Model for Imputation (CSDI) は、観測データに条件付きスコアベース拡散モデルを利用する新しい時系列計算法である。
CSDIは、一般的なパフォーマンスメトリクスの既存の確率論的計算方法よりも40-70%改善されている。
さらに、Cは最先端の決定論的計算法と比較して誤差を5-20%削減する。
論文 参考訳(メタデータ) (2021-07-07T22:20:24Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。