拡散増強型コントラスティブ学習:バイオシグナル表現のためのノイズロバストエンコーダ
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.20048v1発表タイプ:クロス
要旨:生体信号に対する堅牢な表現学習は、効果的なデータ拡張の設計という課題によってしばしば妨げられてきた。従来の手法は、生理学的データに固有の複雑な変動を捉えることができない場合がある。本稿では、拡散モデルと教師ありContrastive Learningの概念を融合した、新しいハイブリッドフレームワークであるDiffusion-Augmented Contrastive Learning (DACL)を提案する。DACLフレームワークは、新規Scattering Transformer (ST)特徴[12]を用いて学習された軽量なVariational Autoencoder (VAE)によって生成された潜在空間に作用する。拡散の順方向過程を原理的なデータ拡張手法として利用し、これらの潜在埋め込みの複数のノイズの入ったビューを生成する。次に、U-Netスタイルのエンコーダを教師ありContrastive Learningの目的関数で学習し、様々な拡散時間ステップにおけるノイズに対する堅牢性とクラス識別能力のバランスを取った表現を学習する。本手法のプロトタイプをPhysioNet 2017 ECGデータセットで評価した結果、0.7815という競争力のあるAUROCを達成した。本研究は、拡散過程自体をContrastive Learningの目的関数を駆動させることで、クラス分離性の強い基盤を示すノイズ不変埋め込みを作成し、表現学習の新しいパラダイムを確立する。
原文(英語)を表示
Title (EN): Diffusion-Augmented Contrastive Learning: A Noise-Robust Encoder for Biosignal Representations
arXiv:2509.20048v1 Announce Type: cross
Abstract: Learning robust representations for biosignals is often hampered by the challenge of designing effective data augmentations.Traditional methods can fail to capture the complex variations inherent in physiological data. Within this context, we propose a novel hybrid framework, Diffusion-Augmented Contrastive Learning (DACL), that fuses concepts from diffusion models and supervised contrastive learning. The DACL framework operates on a latent space created by a lightweight Variational Autoencoder (VAE) trained on our novel Scattering Transformer (ST) features [12]. It utilizes the diffusion forward process as a principled data augmentation technique to generate multiple noisy views of these latent embeddings. A U-Net style encoder is then trained with a supervised contrastive objective to learn a representation that balances class discrimination with robustness to noise across various diffusion time steps. We evaluated this proof-of-concept method on the PhysioNet 2017 ECG dataset, achieving a competitive AUROC of 0.7815. This work establishes a new paradigm for representation learning by using the diffusion process itself to drive the contrastive objective, creating noise-invariant embeddings that demonstrate a strong foundation for class separability.
Published: 2025-09-24 19:00 UTC