AnySafe:潜在空間における安全制約パラメータ化による実行時潜在的安全フィルタの適応

AnySafe:潜在空間における安全制約パラメータ化による実行時潜在的安全フィルタの適応

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.19555v1発表タイプ:クロス

概要:Hamilton-Jacobi (HJ) 到達可能性解析などの基礎的な安全制御手法は、ワールドモデルの潜在空間で適用できることが最近の研究で示されています。これは、モデル化が困難なビジョンベースのタスクに対して潜在的安全フィルタの合成を可能にする一方、安全制約は事前に既知であり、展開中は固定されていると仮定しているため、シナリオ間の安全フィルタの適応性が制限されます。これに対処するため、実行時にユーザー指定の安全制約に適応できる制約パラメータ化潜在的安全フィルタを提案します。我々の主要なアイデアは、制約を表す画像のエンコーディングを条件とすることで安全制約を定義し、潜在空間の類似性尺度を用いることです。失敗との類似性の概念は、コンフォーマルキャリブレーションを通じて原理的に整合されており、システムが制約表現にどの程度近づくことができるかを制御します。パラメータ化された安全フィルタは、ワールドモデルの想像内だけで完全に訓練され、モデルによって認識されるあらゆる画像を潜在的なテスト時制約として扱うことで、任意の安全制約への実行時適応を可能にします。Frankaマニピュレータを用いたビジョンベース制御タスクに関するシミュレーションとハードウェア実験において、我々の手法はユーザー指定の制約画像のエンコーディングを条件とすることで実行時に適応し、性能を犠牲にすることなく動作することを示します。ビデオ結果はhttps://any-safe.github.ioで確認できます。

原文(英語)を表示

Title (EN): AnySafe: Adapting Latent Safety Filters at Runtime via Safety Constraint Parameterization in the Latent Space

arXiv:2509.19555v1 Announce Type: cross
Abstract: Recent works have shown that foundational safe control methods, such as Hamilton-Jacobi (HJ) reachability analysis, can be applied in the latent space of world models. While this enables the synthesis of latent safety filters for hard-to-model vision-based tasks, they assume that the safety constraint is known a priori and remains fixed during deployment, limiting the safety filter’s adaptability across scenarios. To address this, we propose constraint-parameterized latent safety filters that can adapt to user-specified safety constraints at runtime. Our key idea is to define safety constraints by conditioning on an encoding of an image that represents a constraint, using a latent-space similarity measure. The notion of similarity to failure is aligned in a principled way through conformal calibration, which controls how closely the system may approach the constraint representation. The parameterized safety filter is trained entirely within the world model’s imagination, treating any image seen by the model as a potential test-time constraint, thereby enabling runtime adaptation to arbitrary safety constraints. In simulation and hardware experiments on vision-based control tasks with a Franka manipulator, we show that our method adapts at runtime by conditioning on the encoding of user-specified constraint images, without sacrificing performance. Video results can be found on https://any-safe.github.io

Published: 2025-09-24 19:00 UTC


コメントする