心電図データのみを用いた人体活動認識
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.19328v1発表タイプ:クロス
要約:人間活動認識は、早期介入や健康分析などのアプリケーションにおいて極めて重要である。従来の人間活動認識は慣性計測ユニット(IMU)に依存しており、これは資源集約的で較正が必要となる。心電図(ECG)ベースの手法も検討されてきたが、これらは一般的にIMUの補足として機能するか、転倒検出や日常活動における活動状態と非活動状態といった広範なカテゴリ分類に限られていた。本論文では、先行研究の範囲を超えて、6種類の異なる活動についてECGのみを用いた堅牢な活動認識を初めて実証することで、この分野を発展させる。チャネルごとの特徴量再較正のためのSqueeze-and-Excitationブロックを持つCNN分類器、多尺度時間依存関係捕捉のための拡張畳み込みを持つResNet分類器、そして畳み込み特徴抽出とアテンションメカニズムを組み合わせた長範囲時間関係モデリングを行う新規CNNTransformerハイブリッドを含む、3つの新しい深層学習モデルを設計し、評価する。6種類の活動について54人の被験者から得られたデータを用いてテストした結果、3つのモデル全てで既知の被験者に対する精度が94%を超え、CNNTransformerハイブリッドは未知の被験者に対して72%という最高の精度を達成した。この結果は、訓練集団を増やすことで更なる改善が見込まれる。本研究は、複数の身体活動におけるECGのみによる活動分類を初めて成功裏に実証したものであり、追加のモーションセンサー無しで心臓モニタリングと活動認識を同時に行う次世代ウェアラブル開発の可能性を大きく示唆している。
原文(英語)を表示
Title (EN): Human Activity Recognition Based on Electrocardiogram Data Only
arXiv:2509.19328v1 Announce Type: cross
Abstract: Human activity recognition is critical for applications such as early intervention and health analytics. Traditional activity recognition relies on inertial measurement units (IMUs), which are resource intensive and require calibration. Although electrocardiogram (ECG)-based methods have been explored, these have typically served as supplements to IMUs or have been limited to broad categorical classification such as fall detection or active vs. inactive in daily activities. In this paper, we advance the field by demonstrating, for the first time, robust recognition of activity only with ECG in six distinct activities, which is beyond the scope of previous work. We design and evaluate three new deep learning models, including a CNN classifier with Squeeze-and-Excitation blocks for channel-wise feature recalibration, a ResNet classifier with dilated convolutions for multiscale temporal dependency capture, and a novel CNNTransformer hybrid combining convolutional feature extraction with attention mechanisms for long-range temporal relationship modeling. Tested on data from 54 subjects for six activities, all three models achieve over 94% accuracy for seen subjects, while CNNTransformer hybrid reaching the best accuracy of 72% for unseen subjects, a result that can be further improved by increasing the training population. This study demonstrates the first successful ECG-only activity classification in multiple physical activities, offering significant potential for developing next-generation wearables capable of simultaneous cardiac monitoring and activity recognition without additional motion sensors.
Published: 2025-09-24 19:00 UTC