グラフベース時空間注意機構と多尺度融合による臨床解釈可能な高忠実度胎児心電図抽出
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.19308v1発表タイプ:クロス
要旨:先天性心疾患(CHD)は最も一般的な新生児異常であり、転帰改善のため早期発見が急務である。しかし、腹部心電図(aECG)における胎児心電図(fECG)信号は、母体心電図とノイズによってマスクされることが多く、低信号対雑音比(SNR)条件下では従来の方法が困難である。本研究では、グラフニューラルネットワークとマルチスケール拡張トランスフォーマーを統合し、空間時間的なリード間の相関を動的にモデル化し、クリアなfECG信号を抽出する深層学習フレームワーク、FetalHealthNet(FHNet)を提案する。ベンチマークaECGデータセットにおいて、FHNetはLSTMモデル、標準的なトランスフォーマー、および最先端モデルを常に上回り、厳しいノイズ条件下でもR2>0.99、RMSE = 0.015を達成した。解釈可能性分析は、生理学的に意味のある時間的およびリードへの寄与を明らかにし、モデルの透明性と臨床的な信頼性を支える。FHNetは、AI駆動のモデリングが胎児モニタリングの進歩とCHDの早期スクリーニングを可能にし、次世代生体信号処理の変革的な影響を強調している。
原文(英語)を表示
Title (EN): Graph-Based Spatio-temporal Attention and Multi-Scale Fusion for Clinically Interpretable, High-Fidelity Fetal ECG Extraction
arXiv:2509.19308v1 Announce Type: cross
Abstract: Congenital Heart Disease (CHD) is the most common neonatal anomaly, highlighting the urgent need for early detection to improve outcomes. Yet, fetal ECG (fECG) signals in abdominal ECG (aECG) are often masked by maternal ECG and noise, challenging conventional methods under low signal-to-noise ratio (SNR) conditions. We propose FetalHealthNet (FHNet), a deep learning framework that integrates Graph Neural Networks with a multi-scale enhanced transformer to dynamically model spatiotemporal inter-lead correlations and extract clean fECG signals. On benchmark aECG datasets, FHNet consistently outperforms long short-term memory (LSTM) models, standard transformers, and state-of-the-art models, achieving R2>0.99 and RMSE = 0.015 even under severe noise. Interpretability analyses highlight physiologically meaningful temporal and lead contributions, supporting model transparency and clinical trust. FHNet illustrates the potential of AI-driven modeling to advance fetal monitoring and enable early CHD screening, underscoring the transformative impact of next-generation biomedical signal processing.
Published: 2025-09-24 19:00 UTC