自動運転向け視覚言語モデルに対するユニバーサルカモフラージュ攻撃

自動運転向け視覚言語モデルに対するユニバーサルカモフラージュ攻撃

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.20196v1発表形式:クロス

要約:自動運転のためのビジュアル言語モデリングは、マルチモーダル推論能力の大幅な向上を伴い、有望な研究方向として台頭しています。その高度な推論能力にもかかわらず、VLM-ADは、注意深く作成された摂動によってモデルの意思決定を誤らせる敵対的攻撃からの深刻なセキュリティ脅威に対して脆弱なままです。既存の攻撃には、1)物理的な敵対的攻撃は主にビジョンモジュールを標的にしており、通常は低レベルの知覚コンポーネントを攻撃するため、VLM-ADシステムに直接転送することは困難である、2)VLM-ADに対する敵対的攻撃は、デジタルレベルに大きく集中している、という明白な課題があります。これらの課題に対処するため、本研究ではVLM-ADに対する初のUniversal Camouflage Attack (UCA)フレームワークを提案します。ロジット層の最適化に焦点を当てる以前の方法とは異なり、UCAは特徴空間で動作し、異なるユーザーコマンドやモデルアーキテクチャ間で強い汎化性を示す物理的に実現可能なカモフラージュテクスチャを生成します。VLM-ADにおけるエンコーダ層と射影層の脆弱性に着目し、UCAはクリーンな画像と敵対的な画像間の表現上の差異を最大化する特徴発散損失(FDL)を導入します。さらに、UCAはマルチスケール学習戦略を組み込み、サンプリング率を調整することで、現実世界のシナリオにおけるスケールと視点の多様性の変化への適応性を高め、トレーニングの安定性を向上させます。広範な実験により、UCAは様々なVLM-ADモデルと運転シナリオにおいて誤った運転コマンドを引き起こし、既存の最先端の攻撃手法を大幅に上回ることが示されました(3-P指標で30%向上)。さらに、UCAは様々な視点と動的な状況下で強力な攻撃堅牢性を示し、実用的な展開の可能性が高いことを示しています。

原文(英語)を表示

Title (EN): Universal Camouflage Attack on Vision-Language Models for Autonomous Driving

arXiv:2509.20196v1 Announce Type: cross
Abstract: Visual language modeling for automated driving is emerging as a promising research direction with substantial improvements in multimodal reasoning capabilities. Despite its advanced reasoning abilities, VLM-AD remains vulnerable to serious security threats from adversarial attacks, which involve misleading model decisions through carefully crafted perturbations. Existing attacks have obvious challenges: 1) Physical adversarial attacks primarily target vision modules. They are difficult to directly transfer to VLM-AD systems because they typically attack low-level perceptual components. 2) Adversarial attacks against VLM-AD have largely concentrated on the digital level. To address these challenges, we propose the first Universal Camouflage Attack (UCA) framework for VLM-AD. Unlike previous methods that focus on optimizing the logit layer, UCA operates in the feature space to generate physically realizable camouflage textures that exhibit strong generalization across different user commands and model architectures. Motivated by the observed vulnerability of encoder and projection layers in VLM-AD, UCA introduces a feature divergence loss (FDL) that maximizes the representational discrepancy between clean and adversarial images. In addition, UCA incorporates a multi-scale learning strategy and adjusts the sampling ratio to enhance its adaptability to changes in scale and viewpoint diversity in real-world scenarios, thereby improving training stability. Extensive experiments demonstrate that UCA can induce incorrect driving commands across various VLM-AD models and driving scenarios, significantly surpassing existing state-of-the-art attack methods (improving 30\% in 3-P metrics). Furthermore, UCA exhibits strong attack robustness under diverse viewpoints and dynamic conditions, indicating high potential for practical deployment.

Published: 2025-09-24 19:00 UTC


コメントする