テスト時選好整列による操縦可能敵対的シナリオ生成

テスト時選好整列による操縦可能敵対的シナリオ生成

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.20102v1 発表種別:新規

要旨:敵対的シナリオ生成は、自動運転システムの安全性評価における費用対効果の高いアプローチです。しかし、既存の手法は、敵対性と現実性の様な競合する目的間のトレードオフが単一かつ固定されていることが多く、推論時に制御できない行動特異的なモデルを生み出し、多様な訓練とテストの要件に合わせてシナリオを生成する効率性と柔軟性に欠けています。これを踏まえ、本研究では敵対的シナリオ生成の課題を多目的選好整合問題として再定義し、\textbf{S}teerable \textbf{A}dversarial scenario \textbf{GE}nerator (SAGE) と名付けた新しいフレームワークを導入します。SAGEは、再訓練なしで敵対性と現実性の間のトレードオフをテスト時に細かく制御することを可能にします。まず、困難な実現可能性制約とソフトな選好を分離することで、競合する目的のバランスを学習するデータ効率の良いオフライン整合手法である階層的グループベース選好最適化を提案します。固定モデルを訓練する代わりに、SAGEは相反する選好について2つの専門家を微調整し、それらの重みを線形補間することで推論時にポリシーの連続スペクトルを構築します。線形モード接続性の観点から、このフレームワークの理論的根拠を示します。広範な実験により、SAGEは敵対性と現実性のバランスに優れたシナリオを生成するだけでなく、運転ポリシーのより効果的な閉ループ訓練も可能にすることを実証しています。プロジェクトページ:https://tongnie.github.io/SAGE/.

原文(英語)を表示

Title (EN): Steerable Adversarial Scenario Generation through Test-Time Preference Alignment

arXiv:2509.20102v1 Announce Type: new
Abstract: Adversarial scenario generation is a cost-effective approach for safety assessment of autonomous driving systems. However, existing methods are often constrained to a single, fixed trade-off between competing objectives such as adversariality and realism. This yields behavior-specific models that cannot be steered at inference time, lacking the efficiency and flexibility to generate tailored scenarios for diverse training and testing requirements. In view of this, we reframe the task of adversarial scenario generation as a multi-objective preference alignment problem and introduce a new framework named \textbf{S}teerable \textbf{A}dversarial scenario \textbf{GE}nerator (SAGE). SAGE enables fine-grained test-time control over the trade-off between adversariality and realism without any retraining. We first propose hierarchical group-based preference optimization, a data-efficient offline alignment method that learns to balance competing objectives by decoupling hard feasibility constraints from soft preferences. Instead of training a fixed model, SAGE fine-tunes two experts on opposing preferences and constructs a continuous spectrum of policies at inference time by linearly interpolating their weights. We provide theoretical justification for this framework through the lens of linear mode connectivity. Extensive experiments demonstrate that SAGE not only generates scenarios with a superior balance of adversariality and realism but also enables more effective closed-loop training of driving policies. Project page: https://tongnie.github.io/SAGE/.

Published: 2025-09-24 19:00 UTC


コメントする