論文の概要: Diffusion-Augmented Contrastive Learning: A Noise-Robust Encoder for Biosignal Representations
- arxiv url: http://arxiv.org/abs/2509.20048v1
- Date: Wed, 24 Sep 2025 12:15:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.802271
- Title: Diffusion-Augmented Contrastive Learning: A Noise-Robust Encoder for Biosignal Representations
- Title(参考訳): 拡散強化コントラスト学習:生体信号表現のためのノイズロバストエンコーダ
- Authors: Rami Zewail,
- Abstract要約: 本稿では,拡散モデルと教師付きコントラスト学習の概念を融合した,拡散拡張コントラスト学習(DACL)を提案する。
Scattering Transformer(ST)機能に基づいてトレーニングされた軽量変分オートエンコーダ(VAE)によって作成された潜時空間で動作する。
U-Netスタイルのエンコーダは、教師付きコントラスト目標を用いて訓練され、様々な拡散時間ステップでクラス識別とノイズとの堅牢性のバランスをとる表現を学ぶ。
- 参考スコア(独自算出の注目度): 0.4061135251278187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning robust representations for biosignals is often hampered by the challenge of designing effective data augmentations.Traditional methods can fail to capture the complex variations inherent in physiological data. Within this context, we propose a novel hybrid framework, Diffusion-Augmented Contrastive Learning (DACL), that fuses concepts from diffusion models and supervised contrastive learning. The DACL framework operates on a latent space created by a lightweight Variational Autoencoder (VAE) trained on our novel Scattering Transformer (ST) features [12]. It utilizes the diffusion forward process as a principled data augmentation technique to generate multiple noisy views of these latent embeddings. A U-Net style encoder is then trained with a supervised contrastive objective to learn a representation that balances class discrimination with robustness to noise across various diffusion time steps. We evaluated this proof-of-concept method on the PhysioNet 2017 ECG dataset, achieving a competitive AUROC of 0.7815. This work establishes a new paradigm for representation learning by using the diffusion process itself to drive the contrastive objective, creating noise-invariant embeddings that demonstrate a strong foundation for class separability.
- Abstract(参考訳): 生体信号の堅牢な表現を学習することは、効果的なデータ拡張を設計することの難しさによってしばしば妨げられる。
本研究では,拡散モデルと教師付きコントラスト学習の概念を融合した,拡散拡張コントラスト学習(DACL)を提案する。
DACLフレームワークは、我々の新しいScattering Transformer (ST)機能 [12] に基づいて訓練された軽量変分オートエンコーダ(VAE)によって作成された潜時空間で動作する。
拡散前進過程を原理化されたデータ拡張手法として利用し、これらの潜伏埋め込みの複数のノイズビューを生成する。
U-Netスタイルのエンコーダは、教師付きコントラスト目標を用いて訓練され、様々な拡散時間ステップでクラス識別とノイズとの堅牢性のバランスをとる表現を学ぶ。
この概念実証法をPhyloNet 2017 ECGデータセット上で評価し,競争力0.7815のAUROCを実現した。
本研究は, 拡散過程自体を用いて, コントラストな目的を導出し, クラス分離可能性の強い基盤を示す雑音不変な埋め込みを創出することにより, 表現学習の新しいパラダイムを確立する。
関連論文リスト
- FedDifRC: Unlocking the Potential of Text-to-Image Diffusion Models in Heterogeneous Federated Learning [12.366529890744822]
フェデレーション学習は、プライバシを保護しながら、参加者間で協調的にモデルをトレーニングすることを目的としている。
このパラダイムの大きな課題のひとつは、複数のクライアント間で偏ったデータ優先がモデルの一貫性とパフォーマンスを損なう、データ不均一性の問題である。
本稿では,拡散表現協調(FedDifRC)を用いた新しいフェデレーションパラダイムに強力な拡散モデルを導入する。
FedDifRCは、テキスト駆動拡散コントラストとノイズ駆動拡散正規化であり、豊富なクラス関連セマンティック情報と一貫した収束信号を提供することを目的としている。
論文 参考訳(メタデータ) (2025-07-09T01:57:57Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - ACDiT: Interpolating Autoregressive Conditional Modeling and Diffusion Transformer [95.80384464922147]
ACDiTはブロックワイド条件拡散変換器である。
トークン単位の自己回帰とフルシーケンス拡散のフレキシブルな関係を提供する。
本稿では,映像生成タスクにおける自己回帰ベースラインの中で,ACDiTが最良であることを示す。
論文 参考訳(メタデータ) (2024-12-10T18:13:20Z) - SD-DiT: Unleashing the Power of Self-supervised Discrimination in Diffusion Transformer [102.39050180060913]
拡散変換器(DiT)は画像生成における生成拡散モデルの新たなトレンドとして登場した。
最近のブレークスルーは、画像内文脈学習を追加することで、DiTのトレーニング効率を大幅に改善するマスク戦略によって推進されている。
本研究は,DiTトレーニングを促進するための自己監督的識別知識を新たに開放することで,これらの制約に対処する。
論文 参考訳(メタデータ) (2024-03-25T17:59:35Z) - Crossway Diffusion: Improving Diffusion-based Visuomotor Policy via
Self-supervised Learning [42.009856923352864]
拡散モデルは、シーケンス・モデリング方式で行動的クローニングに採用されている。
拡散に基づくビジュモータポリシー学習の簡易かつ効果的な手法であるクロスウェイ拡散を提案する。
シミュレーションおよび実世界のロボット作業におけるクロスウェイ拡散の有効性を実証した。
論文 参考訳(メタデータ) (2023-07-04T17:59:29Z) - Denoising Diffusion Autoencoders are Unified Self-supervised Learners [58.194184241363175]
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層内で線形分離可能な表現を強く学習している。
CIFAR-10 と Tiny-ImageNet の線形評価精度は95.9% と 50.0% である。
論文 参考訳(メタデータ) (2023-03-17T04:20:47Z) - Diffusion-Based Representation Learning [65.55681678004038]
教師付き信号のない表現学習を実現するために,デノナイズスコアマッチングフレームワークを拡張した。
対照的に、拡散に基づく表現学習は、デノナイジングスコアマッチング目的の新しい定式化に依存している。
同じ手法を用いて,半教師付き画像分類における最先端モデルの改善を実現する無限次元潜在符号の学習を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:26:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。