高速較正脳コンピュータインターフェースのための二段階整列と自己教師あり学習によるオンライン適応
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.19403v1発表形式:クロス
要旨:脳波(EEG)を用いたブレイン・コンピュータ・インターフェース(BCI)システムのオンライン応用においては、脳活動の個人差が障害となる。本研究は、この課題を克服するため、二重段階のアラインメントと自己教師あり学習を用いた、未知の被験者に対するオンライン適応アルゴリズムを提案する。アラインメントプロセスは、まずEEGデータ空間においてユークリッドアラインメントを適用し、次に表現空間においてバッチ正規化統計量を更新する。さらに、デコーダを更新するための自己教師あり損失関数を設計する。この損失関数は、未知の真値の代理としてデコーダから導出されたソフト擬似ラベルを用いて計算され、シャノンエントロピーによって調整され、自己教師あり学習を促進する。5つの公開データセットと7つのデコーダを用いた実験により、提案アルゴリズムはBCIのパラダイムやデコーダのアーキテクチャに関係なくシームレスに統合できることが示された。各反復において、デコーダは単一のオンライン試行で更新され、定常視覚誘発電位(SSVEP)で平均4.9%、運動イメージングで平均3.6%の精度向上をもたらした。これらの結果は、高速キャリブレーション動作をサポートし、提案アルゴリズムがBCIアプリケーションに大きな可能性を秘めていることを示している。
原文(英語)を表示
Title (EN): Online Adaptation via Dual-Stage Alignment and Self-Supervision for Fast-Calibration Brain-Computer Interfaces
arXiv:2509.19403v1 Announce Type: cross
Abstract: Individual differences in brain activity hinder the online application of electroencephalogram (EEG)-based brain computer interface (BCI) systems. To overcome this limitation, this study proposes an online adaptation algorithm for unseen subjects via dual-stage alignment and self-supervision. The alignment process begins by applying Euclidean alignment in the EEG data space and then updates batch normalization statistics in the representation space. Moreover, a self-supervised loss is designed to update the decoder. The loss is computed by soft pseudo-labels derived from the decoder as a proxy for the unknown ground truth, and is calibrated by Shannon entropy to facilitate self-supervised training. Experiments across five public datasets and seven decoders show the proposed algorithm can be integrated seamlessly regardless of BCI paradigm and decoder architecture. In each iteration, the decoder is updated with a single online trial, which yields average accuracy gains of 4.9% on steady-state visual evoked potentials (SSVEP) and 3.6% on motor imagery. These results support fast-calibration operation and show that the proposed algorithm has great potential for BCI applications.
Published: 2025-09-24 19:00 UTC