LibEMER:EEGに基づくマルチモーダル感情認識のための新規ベンチマークおよびアルゴリズムライブラリ
なぜ重要か: パフォーマンス指標が更新され、選定・置換の判断材料になります。
arXiv:2509.19330v1発表形式:クロス
要旨:EEGを用いたマルチモーダル感情認識(EMER)は大きな注目を集め、目覚ましい進歩を見せているが、人間の神経系の複雑性ゆえに、マルチモーダルアプローチへの多大な努力が払われてきた。しかし、この分野は現在、以下の3つの重要な制約を抱えている。(i) オープンソース実装の欠如。(ii) 公平な性能分析のための標準化された透明性の高いベンチマークの不足。(iii) 主要な課題と有望な研究方向に関する詳細な議論が著しく不足している。これらの課題に対処するため、本稿では、キュレーションされた深層学習手法の完全に再現可能なPyTorch実装と、データ前処理、モデル実現、実験設定のための標準化されたプロトコルを提供する、統一された評価フレームワークLibEMERを紹介する。このフレームワークは、2つの学習タスクにわたる3つの広く使用されている公開データセットにおいて、偏りのない性能評価を可能にする。このオープンソースライブラリは、https://anonymous.4open.science/r/2025ULUIUBUEUMUEUR485384で公開アクセス可能である。
原文(英語)を表示
Title (EN): LibEMER: A novel benchmark and algorithms library for EEG-based Multimodal Emotion Recognition
arXiv:2509.19330v1 Announce Type: cross
Abstract: EEG-based multimodal emotion recognition(EMER) has gained significant attention and witnessed notable advancements, the inherent complexity of human neural systems has motivated substantial efforts toward multimodal approaches. However, this field currently suffers from three critical limitations: (i) the absence of open-source implementations. (ii) the lack of standardized and transparent benchmarks for fair performance analysis. (iii) in-depth discussion regarding main challenges and promising research directions is a notable scarcity. To address these challenges, we introduce LibEMER, a unified evaluation framework that provides fully reproducible PyTorch implementations of curated deep learning methods alongside standardized protocols for data preprocessing, model realization, and experimental setups. This framework enables unbiased performance assessment on three widely-used public datasets across two learning tasks. The open-source library is publicly accessible at: https://anonymous.4open.science/r/2025ULUIUBUEUMUEUR485384
Published: 2025-09-24 19:00 UTC