多言語希望スピーチ検出:ロジスティック回帰、mBERT、XLM-RoBERTaとアクティブラーニングの比較研究
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.20315v1 発表種別:新規
要旨:励ましと楽観主義を促進する希望的表現は、オンラインにおける肯定的な議論を促進する上で重要な役割を果たします。しかし、特に多言語および低資源環境においては、その検出は困難なままです。本論文は、アクティブラーニングアプローチと、mBERTやXLM-RoBERTaを含むTransformerベースのモデルを用いた、多言語対応の希望的表現検出フレームワークを提示します。実験は、最近の共有タスクからのベンチマークテストセットを含む、英語、スペイン語、ドイツ語、ウルドゥー語のデータセットに対して行われました。その結果、Transformerモデルは従来のベースラインを大幅に上回り、XLM-RoBERTaが最高の全体精度を達成しました。さらに、私たちのアクティブラーニング戦略は、少量の注釈付きデータセットでも高い性能を維持しました。本研究は、多言語Transformerとデータ効率の良いトレーニング戦略を組み合わせることで、希望的表現の検出が効果的に行えることを示しています。
原文(英語)を表示
Title (EN): Multilingual Hope Speech Detection: A Comparative Study of Logistic Regression, mBERT, and XLM-RoBERTa with Active Learning
arXiv:2509.20315v1 Announce Type: new
Abstract: Hope speech language that fosters encouragement and optimism plays a vital role in promoting positive discourse online. However, its detection remains challenging, especially in multilingual and low-resource settings. This paper presents a multilingual framework for hope speech detection using an active learning approach and transformer-based models, including mBERT and XLM-RoBERTa. Experiments were conducted on datasets in English, Spanish, German, and Urdu, including benchmark test sets from recent shared tasks. Our results show that transformer models significantly outperform traditional baselines, with XLM-RoBERTa achieving the highest overall accuracy. Furthermore, our active learning strategy maintained strong performance even with small annotated datasets. This study highlights the effectiveness of combining multilingual transformers with data-efficient training strategies for hope speech detection.
Published: 2025-09-24 19:00 UTC