TriSPrompt:不完全なモダリティを持つマルチモーダル噂検知のための階層型ソフトプロンプトモデル
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.19352v1発表タイプ:クロス
概要:マルチモーダルデータにおける不完全なモダリティの広範な存在は、正確な噂検出を達成するための大きな課題となっている。既存のマルチモーダル噂検出方法は、主に完全なマルチモーダル訓練データからの共同モダリティ表現学習に焦点を当てており、現実世界のシナリオで一般的に発生するモダリティ欠損に対処するには効果がない。本論文では、3種類のプロンプト、すなわちモダリティ認識(MA)プロンプト、モダリティ欠損(MM)プロンプト、相互視点(MV)プロンプトを統合した階層型ソフトプロンプトモデルTriSPromptを提案する。MAプロンプトは、特定のモダリティからの異種情報と利用可能なデータからの同種特徴の両方を捉え、モダリティ回復を支援する。MMプロンプトは、不完全データにおける欠損状態をモデル化し、モデルの欠損情報への適応性を向上させる。MVプロンプトは、主観的(テキストと画像)および客観的(コメント)な視点間の関係を学習し、噂を効果的に検出する。3つの現実世界のベンチマークに関する広範な実験により、TriSPromptは最先端の方法と比較して13%以上の精度向上を達成することが示された。コードとデータセットはhttps://anonymous.4open.science/r/code-3E88で入手可能である。
原文(英語)を表示
Title (EN): TriSPrompt: A Hierarchical Soft Prompt Model for Multimodal Rumor Detection with Incomplete Modalities
arXiv:2509.19352v1 Announce Type: cross
Abstract: The widespread presence of incomplete modalities in multimodal data poses a significant challenge to achieving accurate rumor detection. Existing multimodal rumor detection methods primarily focus on learning joint modality representations from \emph{complete} multimodal training data, rendering them ineffective in addressing the common occurrence of \emph{missing modalities} in real-world scenarios. In this paper, we propose a hierarchical soft prompt model \textsf{TriSPrompt}, which integrates three types of prompts, \textit{i.e.}, \emph{modality-aware} (MA) prompt, \emph{modality-missing} (MM) prompt, and \emph{mutual-views} (MV) prompt, to effectively detect rumors in incomplete multimodal data. The MA prompt captures both heterogeneous information from specific modalities and homogeneous features from available data, aiding in modality recovery. The MM prompt models missing states in incomplete data, enhancing the model’s adaptability to missing information. The MV prompt learns relationships between subjective (\textit{i.e.}, text and image) and objective (\textit{i.e.}, comments) perspectives, effectively detecting rumors. Extensive experiments on three real-world benchmarks demonstrate that \textsf{TriSPrompt} achieves an accuracy gain of over 13\% compared to state-of-the-art methods. The codes and datasets are available at https: //anonymous.4open.science/r/code-3E88.
Published: 2025-09-24 19:00 UTC