論文の概要: Sequential IoT Data Augmentation using Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2101.05003v1
- Date: Wed, 13 Jan 2021 11:08:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 17:15:36.820193
- Title: Sequential IoT Data Augmentation using Generative Adversarial Networks
- Title(参考訳): Generative Adversarial Networks を用いた逐次IoTデータ拡張
- Authors: Maximilian Ernst Tschuchnig and Cornelia Ferner and Stefan Wegenkittl
- Abstract要約: 工業アプリケーションにおけるシーケンシャルデータは、機械学習モデルのトレーニングと評価に使用できる。
代表的なデータの収集は困難で時間がかかるため、小さな根拠からそれを生成するインセンティブがある。
本稿では,IoT(Internet of Things)データを逐次的に拡張するためにGANを使用する可能性について検討する。
- 参考スコア(独自算出の注目度): 5.8010446129208155
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Sequential data in industrial applications can be used to train and evaluate
machine learning models (e.g. classifiers). Since gathering representative
amounts of data is difficult and time consuming, there is an incentive to
generate it from a small ground truth. Data augmentation is a common method to
generate more data through a priori knowledge with one specific method, so
called generative adversarial networks (GANs), enabling data generation from
noise. This paper investigates the possibility of using GANs in order to
augment sequential Internet of Things (IoT) data, with an example
implementation that generates household energy consumption data with and
without swimming pools. The results of the example implementation seem
subjectively similar to the original data. Additionally to this subjective
evaluation, the paper also introduces a quantitative evaluation technique for
GANs if labels are provided. The positive results from the evaluation support
the initial assumption that generating sequential data from a small ground
truth is possible. This means that tedious data acquisition of sequential data
can be shortened. In the future, the results of this paper may be included as a
tool in machine learning, tackling the small data challenge.
- Abstract(参考訳): 産業アプリケーションにおけるシーケンシャルデータは、機械学習モデルのトレーニングと評価に使用することができる(例)。
分類器)
代表的なデータの収集は困難で時間がかかるため、小さな根拠からそれを生成するインセンティブがある。
データ拡張は、1つの特定の方法で事前知識を通じてより多くのデータを生成する一般的な方法であり、gans(generative adversarial networks)と呼ばれ、ノイズからデータを生成する。
本稿では,水泳プールの有無に関わらず家庭のエネルギー消費データを生成する例として,モノのインターネット(iot)データを逐次的に強化するためにgansを使用する可能性について検討する。
サンプル実装の結果は、元のデータと主観的に類似しているように見える。
この主観評価に加えて,ラベルが提供される場合のGANの定量的評価手法も導入する。
評価による肯定的な結果は、小さな基底真理から逐次データを生成することができるという初期仮定を支持する。
これは、シーケンシャルデータの退屈なデータ取得を短縮できることを意味する。
将来、この論文の結果は、小さなデータ課題に対処する機械学習のツールとして含められるかもしれない。
関連論文リスト
- Generating Realistic Tabular Data with Large Language Models [49.03536886067729]
大規模言語モデル(LLM)は多様なタスクに使われてきたが、特徴と対象変数の正確な相関は捉えていない。
そこで本研究では,LLMに基づく3つの重要な改良を加えて,実データの特徴クラス相関を正しく把握する手法を提案する。
実験の結果,本手法は下流タスクにおいて,20個のデータセット上で10個のSOTAベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-10-29T04:14:32Z) - Deep Generative Modeling-based Data Augmentation with Demonstration
using the BFBT Benchmark Void Fraction Datasets [3.341975883864341]
本稿では、画像データ生成に広く用いられている深部生成モデル(DGM)の科学的データ拡張への応用について検討する。
トレーニングが完了すると、DGMはトレーニングデータに類似した合成データを生成し、データセットのサイズを大幅に拡大するために使用することができる。
論文 参考訳(メタデータ) (2023-08-19T22:19:41Z) - STAR: Boosting Low-Resource Information Extraction by Structure-to-Text
Data Generation with Large Language Models [56.27786433792638]
STARは大規模言語モデル(LLM)を利用してデータインスタンスを合成するデータ生成手法である。
我々は、初期データインスタンスを取得するための詳細なステップバイステップ命令を設計する。
実験の結果,STARが生成したデータは,低リソースイベント抽出および関係抽出タスクの性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-05-24T12:15:19Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - FairGen: Fair Synthetic Data Generation [0.3149883354098941]
本稿では,GANアーキテクチャに依存しないより公平な合成データを生成するパイプラインを提案する。
合成データを生成する場合、ほとんどのGANはトレーニングデータに存在するバイアスを増幅するが、これらのバイアスを誘発するサンプルを除去することで、GANは本質的に真の情報的サンプルに重点を置いている、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T08:13:47Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Generative Adversarial Networks (GANs): An Overview of Theoretical
Model, Evaluation Metrics, and Recent Developments [9.023847175654602]
GAN(Generative Adversarial Network)は,大規模データ分散のサンプルを作成する上で有効な手法である。
GANはラベル付きトレーニングデータを広く使用せずにディープ表現を学習する適切な方法を提供する。
GANでは、ジェネレータと識別器のネットワークを同時にトレーニングする競合プロセスを通じて生成モデルを推定する。
論文 参考訳(メタデータ) (2020-05-27T05:56:53Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Data-Free Network Quantization With Adversarial Knowledge Distillation [39.92282726292386]
本稿では,合成データを用いたデータフリーネットワーク量子化について考察する。
合成データはジェネレータから生成されるが、ジェネレータのトレーニングや量子化にはデータを使用しない。
複数のジェネレータと複数の学生を用いて多様な対向サンプルを作成できることを示す。
論文 参考訳(メタデータ) (2020-05-08T16:24:55Z) - Generative Low-bitwidth Data Free Quantization [44.613912463011545]
本稿ではGDFQ(Generative Low-bitdth Data Free Quantization)を提案する。
生成したデータの助けを借りて、事前学習されたモデルから知識を学習することでモデルを定量化することができる。
提案手法は,既存のデータ自由量子化法よりも高精度な4ビット量子化を実現する。
論文 参考訳(メタデータ) (2020-03-07T16:38:34Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。