EngravingGNN:エンドツーエンド楽譜彫刻のためのハイブリッドグラフニューラルネットワーク

EngravingGNN:エンドツーエンド楽譜彫刻のためのハイブリッドグラフニューラルネットワーク

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.19412v1発表形式:クロス

概要:本論文は自動楽譜作成、すなわち音楽コンテンツから人間が読める楽譜を作成することに焦点を当てている。この工程は、人間のパフォーマーを含む全てのアプリケーションにおいて基礎的であるが、記号音楽処理においては未だ十分に研究されていない課題である。本研究では、この問題を相互依存するサブタスクの集合として定式化し、ピアノ音楽と量子化された記号入力に対応する統一的なグラフニューラルネットワーク(GNN)フレームワークを提案する。提案手法は、マルチタスクGNNを用いて、声部接続、五線譜への割り当て、音名表記、調号、符頭方向、オクターブシフト、 clef 記号を同時に予測する。専用のポストプロセッシングパイプラインにより、印刷可能な MusicXML/MEI 出力が生成される。2つの多様なピアノコーパス(J-PopとDCML Romantic)に関する包括的な評価により、提案手法が特定のサブタスクのみに特化した既存システムと比較して、全てのサブタスクにおいて良好な精度を達成することを実証した。これらの結果は、マルチタスク設定における軽量なタスク固有のデコーダを持つ共有GNNエンコーダが、自動楽譜作成のためのスケーラブルで効果的な解決策を提供することを示唆している。

原文(英語)を表示

Title (EN): EngravingGNN: A Hybrid Graph Neural Network for End-to-End Piano Score Engraving

arXiv:2509.19412v1 Announce Type: cross
Abstract: This paper focuses on automatic music engraving, i.e., the creation of a humanly-readable musical score from musical content. This step is fundamental for all applications that include a human player, but it remains a mostly unexplored topic in symbolic music processing. In this work, we formalize the problem as a collection of interdependent subtasks, and propose a unified graph neural network (GNN) framework that targets the case of piano music and quantized symbolic input. Our method employs a multi-task GNN to jointly predict voice connections, staff assignments, pitch spelling, key signature, stem direction, octave shifts, and clef signs. A dedicated postprocessing pipeline generates print-ready MusicXML/MEI outputs. Comprehensive evaluation on two diverse piano corpora (J-Pop and DCML Romantic) demonstrates that our unified model achieves good accuracy across all subtasks, compared to existing systems that only specialize in specific subtasks. These results indicate that a shared GNN encoder with lightweight task-specific decoders in a multi-task setting offers a scalable and effective solution for automatic music engraving.

Published: 2025-09-24 19:00 UTC


コメントする