論文の概要: Missingness Augmentation: A General Approach for Improving Generative
Imputation Models
- arxiv url: http://arxiv.org/abs/2108.02566v1
- Date: Sat, 31 Jul 2021 08:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-08 11:08:19.840220
- Title: Missingness Augmentation: A General Approach for Improving Generative
Imputation Models
- Title(参考訳): 欠落性拡張:生成的インプテーションモデルを改善するための一般的なアプローチ
- Authors: Yufeng Wang, Dan Li, Cong Xu, Min Yang
- Abstract要約: そこで本研究では、既存の多くの生成的計算フレームワークに適用可能な、ミスネス拡張(MA)と呼ばれる新しい汎用データ拡張手法を提案する。
実験により、MAは様々なデータセット上で最近開発された多くの生成的計算モデルの性能を著しく向上させることができることが示された。
- 参考スコア(独自算出の注目度): 19.15645469063393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite tremendous progress in missing data imputation task, designing new
imputation models has become more and more cumbersome but the corresponding
gains are relatively small. Is there any simple but general approach that can
exploit the existing models to further improve the quality of the imputation?
In this article, we aim to respond to this concern and propose a novel general
data augmentation method called Missingness Augmentation (MA), which can be
applied in many existing generative imputation frameworks to further improve
the performance of these models. For MA, before each training epoch, we use the
outputs of the generator to expand the incomplete samples on the fly, and then
determine a special reconstruction loss for these augmented samples. This
reconstruction loss plus the original loss constitutes the final optimization
objective of the model. It is noteworthy that MA is very efficient and does not
need to change the structure of the original model. Experimental results
demonstrate that MA can significantly improve the performance of many recently
developed generative imputation models on a variety of datasets. Our code is
available at https://github.com/WYu-Feng/Missingness-Augmentation.
- Abstract(参考訳): データインプテーションタスクの大幅な進歩にもかかわらず、新しいインプテーションモデルの設計はますます面倒なものになっているが、それに対応する利益は比較的小さい。
既存のモデルを利用してインプテーションの品質をさらに改善できる、単純だが一般的なアプローチはありますか?
本稿では,この懸念に対処し,これらのモデルの性能向上を図るために,既存の多くの生成的計算フレームワークに適用可能な,ミスネス増強(MA)と呼ばれる新しい汎用データ拡張手法を提案する。
maの場合、各トレーニング期間の前に、ジェネレータの出力を使用して不完全なサンプルをフライで拡張し、拡張されたサンプルに対して特別な再構成損失を判断します。
この再構成損失と元の損失は、モデルの最終最適化目標を構成する。
MAは非常に効率的であり、元のモデルの構造を変更する必要はないことは注目に値する。
実験の結果、maは様々なデータセット上で最近開発された多くの生成的インプテーションモデルの性能を著しく改善できることが示されている。
私たちのコードはhttps://github.com/WYu-Feng/Missingness-Augmentationで公開されています。
関連論文リスト
- A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Regularizing Neural Networks with Meta-Learning Generative Models [40.45689466486025]
メタ生成正則化(Meta Generative regularization, MGR)と呼ばれる新しい生成データ拡張戦略を提案する。
MGRは、例えばクロスエントロピーのような損失関数の代わりに、特徴抽出器の正則化項で合成サンプルを利用する。
6つのデータセットの実験では、MGRは特にデータセットが小さく、安定してベースラインを上回っている場合に有効であることが示された。
論文 参考訳(メタデータ) (2023-07-26T01:47:49Z) - Data Augmentation for Seizure Prediction with Generative Diffusion Model [26.967247641926814]
重症度予測は患者の生活改善に非常に重要である。
初期データと中間データの間の深刻な不均衡問題は、依然として大きな課題となっている。
データ拡張は、この問題を解決するための直感的な方法です。
DiffEEGと呼ばれる拡散モデルを用いた新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T05:44:53Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Reweighting Augmented Samples by Minimizing the Maximal Expected Loss [51.2791895511333]
我々は,拡張標本の任意の重み付け損失に対する上限となる最大期待損失を構成する。
敵の訓練に触発されて、この最大期待損失を最小化し、単純で解釈可能なクローズドフォームソリューションを得る。
提案手法は, 一般に任意のデータ拡張法上に適用可能である。
論文 参考訳(メタデータ) (2021-03-16T09:31:04Z) - MAIN: Multihead-Attention Imputation Networks [4.427447378048202]
本稿では,任意のモデルに適用可能なマルチヘッドアテンションに基づく新しいメカニズムを提案する。
提案手法は、下流タスクの性能を向上させるために、入力データの欠落パターンを誘導的にモデル化する。
論文 参考訳(メタデータ) (2021-02-10T13:50:02Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。