論文の概要: Data Augmentation for Seizure Prediction with Generative Diffusion Model
- arxiv url: http://arxiv.org/abs/2306.08256v2
- Date: Mon, 09 Dec 2024 14:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:47:45.856177
- Title: Data Augmentation for Seizure Prediction with Generative Diffusion Model
- Title(参考訳): 生成拡散モデルによる震度予測のためのデータ拡張
- Authors: Kai Shu, Le Wu, Yuchang Zhao, Aiping Liu, Ruobing Qian, Xun Chen,
- Abstract要約: DiffEEGと呼ばれる新しい拡散型DA法を提案する。
データ分散を完全に探索し、多様性の高いサンプルを生成することができる。
DiffEEGの貢献により、マルチスケールCNNは最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 34.12334834099495
- License:
- Abstract: Data augmentation (DA) can significantly strengthen the electroencephalogram (EEG)-based seizure prediction methods. However, existing DA approaches are just the linear transformations of original data and cannot explore the feature space to increase diversity effectively. Therefore, we propose a novel diffusion-based DA method called DiffEEG. DiffEEG can fully explore data distribution and generate samples with high diversity, offering extra information to classifiers. It involves two processes: the diffusion process and the denoised process. In the diffusion process, the model incrementally adds noise with different scales to EEG input and converts it into random noise. In this way, the representation of data can be learned. In the denoised process, the model utilizes learned knowledge to sample synthetic data from random noise input by gradually removing noise. The randomness of input noise and the precise representation enable the synthetic samples to possess diversity while ensuring the consistency of feature space. We compared DiffEEG with original, down-sampling, sliding windows and recombination methods, and integrated them into five representative classifiers. The experiments demonstrate the effectiveness and generality of our method. With the contribution of DiffEEG, the Multi-scale CNN achieves state-of-the-art performance, with an average sensitivity, FPR, AUC of 95.4%, 0.051/h, 0.932 on the CHB-MIT database and 93.6%, 0.121/h, 0.822 on the Kaggle database.
- Abstract(参考訳): データ拡張(DA)は脳波に基づく発作予測法を大幅に強化することができる。
しかし、既存のDAアプローチは元のデータの線形変換に過ぎず、多様性を効果的に向上するために特徴空間を探索することができない。
そこで我々はDiffEEGと呼ばれる新しい拡散型DA法を提案する。
DiffEEGは、データ分散を完全に探索し、高い多様性を持つサンプルを生成し、分類器に余分な情報を提供する。
拡散過程と分極過程の2つの過程を含む。
拡散過程において、モデルは脳波入力に異なるスケールのノイズを漸進的に付加し、ランダムノイズに変換する。
このようにして、データの表現を学習することができる。
復調過程において、モデルは学習知識を利用して、ノイズを徐々に除去してランダムノイズ入力から合成データをサンプリングする。
入力雑音のランダム性と正確な表現により、合成サンプルは特徴空間の整合性を確保しつつ多様性を有することができる。
我々はDiffEEGを、オリジナルのダウンサンプリング、スライディングウインドウと組換え法と比較し、それらを5つの代表分類器に統合した。
本手法の有効性と汎用性を示す実験を行った。
DiffEEGの貢献により、Multi-scale CNNは、平均感度、FPR、AUC 95.4%、CHB-MITデータベースで0.051/h、0.932、Kaggleデータベースで93.6%、0.121/h、0.822という最先端のパフォーマンスを達成した。
関連論文リスト
- CCS: Controllable and Constrained Sampling with Diffusion Models via Initial Noise Perturbation [9.12693573953231]
生成出力の変化と初期雑音摂動のスケールの関係は拡散ODEサンプリングにより非常に線形である。
そこで我々は,新しい制御可能・制約付きサンプリング法 (CCS) と,所望の統計特性を持つ拡散モデルに対する新しい制御アルゴリズムを提案する。
その結果, CCS法は, 優れた試料品質と多様性を維持しつつ, より精密にサンプリングを制御できることが示唆された。
論文 参考訳(メタデータ) (2025-02-07T05:30:48Z) - Data Augmentation via Diffusion Model to Enhance AI Fairness [1.2979015577834876]
本稿では,AIフェアネスを改善するために合成データを生成する拡散モデルの可能性について検討する。
Tabular Denoising Diffusion Probabilistic Model (Tab-DDPM) を用いてデータ拡張を行った。
実験結果から,Tab-DDPMにより生成された合成データは,二項分類の公平性を向上させることが示された。
論文 参考訳(メタデータ) (2024-10-20T18:52:31Z) - DiffATR: Diffusion-based Generative Modeling for Audio-Text Retrieval [49.076590578101985]
ノイズから関節分布を生成する拡散型ATRフレームワーク(DiffATR)を提案する。
優れたパフォーマンスを持つAudioCapsとClothoデータセットの実験は、我々のアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2024-09-16T06:33:26Z) - Improving EEG Classification Through Randomly Reassembling Original and Generated Data with Transformer-based Diffusion Models [12.703528969668062]
本稿では,トランスフォーマーを用いた拡散確率モデルとデータに基づく拡張手法を提案する。
脳波信号の特徴として,信号の事前処理を行う定数要素スケーリング手法を提案する。
提案手法は,生成したデータを時間領域の原データでランダムに再集合し,ビジナルデータを取得する。
論文 参考訳(メタデータ) (2024-07-20T06:58:14Z) - Score-based Generative Models with Adaptive Momentum [40.84399531998246]
変換過程を高速化する適応運動量サンプリング法を提案する。
提案手法は,2倍から5倍の速度で,より忠実な画像/グラフを小さなサンプリングステップで作成できることを示す。
論文 参考訳(メタデータ) (2024-05-22T15:20:27Z) - Diffusion Models with Deterministic Normalizing Flow Priors [23.212848643552395]
フローと拡散モデルを正規化する手法であるDiNof(textbfDi$ffusion with $textbfNo$rmalizing $textbff$low priors)を提案する。
標準画像生成データセットの実験は、既存の手法よりも提案手法の利点を実証している。
論文 参考訳(メタデータ) (2023-09-03T21:26:56Z) - Boosting Fast and High-Quality Speech Synthesis with Linear Diffusion [85.54515118077825]
本稿では, 常微分方程式に基づく線形拡散モデル(LinDiff)を提案する。
計算複雑性を低減するため、LinDiffでは、入力信号を小さなパッチに分割するパッチベースの処理アプローチを採用している。
我々のモデルは、より高速な合成速度で自己回帰モデルに匹敵する品質の音声を合成することができる。
論文 参考訳(メタデータ) (2023-06-09T07:02:43Z) - Decision Forest Based EMG Signal Classification with Low Volume Dataset
Augmented with Random Variance Gaussian Noise [51.76329821186873]
我々は6種類の手振りを限定的なサンプル数で分類できるモデルを作成し、より広い聴衆によく一般化する。
信号のランダムなバウンドの使用など、より基本的な手法のセットにアピールするが、これらの手法がオンライン環境で持てる力を示したいと考えている。
論文 参考訳(メタデータ) (2022-06-29T23:22:18Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z) - Truncated Diffusion Probabilistic Models and Diffusion-based Adversarial
Auto-Encoders [137.1060633388405]
拡散に基づく生成モデルは、逆拡散連鎖を推論してデータを生成する方法を学ぶ。
我々は、データが純粋なランダムノイズになるまで、より高速で安価にノイズを付加するアプローチを提案する。
提案手法は,拡散過程と学習可能な暗黙的前処理の両方によって付与された逆自動エンコーダとしてキャスト可能であることを示す。
論文 参考訳(メタデータ) (2022-02-19T20:18:49Z) - Learning Energy-Based Models by Diffusion Recovery Likelihood [61.069760183331745]
本稿では,エネルギーベースモデルから気軽に学習・サンプルできる拡散回復可能性法を提案する。
学習後、ガウスの白色雑音分布から初期化するサンプリングプロセスにより合成画像を生成することができる。
非条件 CIFAR-10 では,本手法は FID 9.58 と開始スコア 8.30 を達成する。
論文 参考訳(メタデータ) (2020-12-15T07:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。