論文の概要: Missingness Augmentation: A General Approach for Improving Generative
Imputation Models
- arxiv url: http://arxiv.org/abs/2108.02566v2
- Date: Thu, 6 Apr 2023 06:05:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 18:29:50.816755
- Title: Missingness Augmentation: A General Approach for Improving Generative
Imputation Models
- Title(参考訳): 欠落性拡張:生成的インプテーションモデルを改善するための一般的なアプローチ
- Authors: Yufeng Wang, Dan Li, Cong Xu, Min Yang
- Abstract要約: 生成的計算モデルのためのMisA(MisA)と呼ばれる新しいデータ拡張手法を提案する。
一般的な拡張技術として、MisAは生成的計算フレームワークに容易に統合できる。
実験結果から、最近提案された多くの生成的計算モデルの性能は、MisAにより大幅に向上することが示された。
- 参考スコア(独自算出の注目度): 20.245637164975594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Missing data imputation is a fundamental problem in data analysis, and many
studies have been conducted to improve its performance by exploring model
structures and learning procedures. However, data augmentation, as a simple yet
effective method, has not received enough attention in this area. In this
paper, we propose a novel data augmentation method called Missingness
Augmentation (MisA) for generative imputation models. Our approach dynamically
produces incomplete samples at each epoch by utilizing the generator's output,
constraining the augmented samples using a simple reconstruction loss, and
combining this loss with the original loss to form the final optimization
objective. As a general augmentation technique, MisA can be easily integrated
into generative imputation frameworks, providing a simple yet effective way to
enhance their performance. Experimental results demonstrate that MisA
significantly improves the performance of many recently proposed generative
imputation models on a variety of tabular and image datasets. The code is
available at \url{https://github.com/WYu-Feng/Missingness-Augmentation}.
- Abstract(参考訳): データインプテーションの欠如はデータ解析における根本的な問題であり、モデル構造や学習手順を探求することでその性能を向上させるために多くの研究が行われている。
しかし,データ拡張は単純で効果的な手法として,この分野では十分に注目されていない。
本論文では,生成的計算モデルのためのMissingness Augmentation(MisA)と呼ばれる新しいデータ拡張手法を提案する。
提案手法は, ジェネレータの出力を生かし, 単純な再構成損失を用いて拡張サンプルを制約し, この損失を元の損失と組み合わせて最終最適化目標を形成することにより, 各エポックにおける不完全サンプルを動的に生成する。
一般的な拡張技術として、misaは生成的インプテーションフレームワークに簡単に統合でき、パフォーマンスを向上させるためのシンプルで効果的な方法を提供する。
実験の結果、misaは様々な表型および画像データセットにおいて、最近提案されている多くの生成的インプテーションモデルの性能を大幅に改善できることが示されている。
コードは \url{https://github.com/WYu-Feng/Missingness-Augmentation} で公開されている。
関連論文リスト
- A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Regularizing Neural Networks with Meta-Learning Generative Models [40.45689466486025]
メタ生成正則化(Meta Generative regularization, MGR)と呼ばれる新しい生成データ拡張戦略を提案する。
MGRは、例えばクロスエントロピーのような損失関数の代わりに、特徴抽出器の正則化項で合成サンプルを利用する。
6つのデータセットの実験では、MGRは特にデータセットが小さく、安定してベースラインを上回っている場合に有効であることが示された。
論文 参考訳(メタデータ) (2023-07-26T01:47:49Z) - Data Augmentation for Seizure Prediction with Generative Diffusion Model [26.967247641926814]
重症度予測は患者の生活改善に非常に重要である。
初期データと中間データの間の深刻な不均衡問題は、依然として大きな課題となっている。
データ拡張は、この問題を解決するための直感的な方法です。
DiffEEGと呼ばれる拡散モデルを用いた新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T05:44:53Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Reweighting Augmented Samples by Minimizing the Maximal Expected Loss [51.2791895511333]
我々は,拡張標本の任意の重み付け損失に対する上限となる最大期待損失を構成する。
敵の訓練に触発されて、この最大期待損失を最小化し、単純で解釈可能なクローズドフォームソリューションを得る。
提案手法は, 一般に任意のデータ拡張法上に適用可能である。
論文 参考訳(メタデータ) (2021-03-16T09:31:04Z) - MAIN: Multihead-Attention Imputation Networks [4.427447378048202]
本稿では,任意のモデルに適用可能なマルチヘッドアテンションに基づく新しいメカニズムを提案する。
提案手法は、下流タスクの性能を向上させるために、入力データの欠落パターンを誘導的にモデル化する。
論文 参考訳(メタデータ) (2021-02-10T13:50:02Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。