論文の概要: AnySafe: Adapting Latent Safety Filters at Runtime via Safety Constraint Parameterization in the Latent Space
- arxiv url: http://arxiv.org/abs/2509.19555v1
- Date: Tue, 23 Sep 2025 20:28:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.59596
- Title: AnySafe: Adapting Latent Safety Filters at Runtime via Safety Constraint Parameterization in the Latent Space
- Title(参考訳): AnySafe: 遅延空間における安全制約パラメータ化による実行時遅延安全フィルタの適応
- Authors: Sankalp Agrawal, Junwon Seo, Kensuke Nakamura, Ran Tian, Andrea Bajcsy,
- Abstract要約: 本研究では,実行時にユーザ指定の安全制約に適応できる制約パラメータ付き潜時安全フィルタを提案する。
我々のキーとなる考え方は、遅延空間類似度尺度を用いて、制約を表す画像のエンコーディングを条件付けすることで、安全制約を定義することである。
本手法は,ユーザの指定した制約画像の符号化を条件に実行時に適応し,性能を犠牲にすることなく適用する。
- 参考スコア(独自算出の注目度): 14.019012127165901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent works have shown that foundational safe control methods, such as Hamilton-Jacobi (HJ) reachability analysis, can be applied in the latent space of world models. While this enables the synthesis of latent safety filters for hard-to-model vision-based tasks, they assume that the safety constraint is known a priori and remains fixed during deployment, limiting the safety filter's adaptability across scenarios. To address this, we propose constraint-parameterized latent safety filters that can adapt to user-specified safety constraints at runtime. Our key idea is to define safety constraints by conditioning on an encoding of an image that represents a constraint, using a latent-space similarity measure. The notion of similarity to failure is aligned in a principled way through conformal calibration, which controls how closely the system may approach the constraint representation. The parameterized safety filter is trained entirely within the world model's imagination, treating any image seen by the model as a potential test-time constraint, thereby enabling runtime adaptation to arbitrary safety constraints. In simulation and hardware experiments on vision-based control tasks with a Franka manipulator, we show that our method adapts at runtime by conditioning on the encoding of user-specified constraint images, without sacrificing performance. Video results can be found on https://any-safe.github.io
- Abstract(参考訳): 近年の研究では、ハミルトン・ヤコビ(HJ)の到達可能性解析のような基本的な安全制御法が、世界モデルの潜在空間に応用できることが示されている。
これにより、ハード・ツー・モデル視覚に基づくタスクに対する潜時安全フィルタの合成が可能になるが、彼らは、安全制約はプリオリとして知られ、デプロイ中に固定され、シナリオ間での安全フィルタの適応性を制限することができると仮定する。
そこで本研究では,実行時にユーザ指定の安全制約に適応可能な制約パラメータ付き潜時安全フィルタを提案する。
我々のキーとなる考え方は、遅延空間類似度尺度を用いて、制約を表す画像のエンコーディングを条件付けすることで、安全制約を定義することである。
障害との類似性の概念は、システムがどのように制約表現に近づくかを制御する共形キャリブレーションを通じて、原則化された方法で整列される。
パラメータ化された安全フィルタは、世界モデルの想像力の中で完全に訓練され、モデルで見られるあらゆるイメージを潜在的なテスト時間制約として扱い、任意の安全制約への実行時適応を可能にする。
フランカマニピュレータを用いた視覚制御タスクのシミュレーションおよびハードウェア実験において,本手法は性能を犠牲にすることなく,ユーザ指定制約画像の符号化を条件に実行時に適応することを示した。
ビデオ結果はhttps://any-safe.github.ioで見ることができる。
関連論文リスト
- Generalizing Safety Beyond Collision-Avoidance via Latent-Space Reachability Analysis [6.267574471145217]
Hamilton-Jacobi (H) は、ロボットが安全でない状態を同時に検出し、アクションを生成するための厳格なフレームワークである。
生観測データを直接操作する潜在空間到達性であるLa Safety Filtersを提案する。
論文 参考訳(メタデータ) (2025-02-02T22:00:20Z) - Safety Without Semantic Disruptions: Editing-free Safe Image Generation via Context-preserving Dual Latent Reconstruction [88.18235230849554]
大規模で未処理のデータセットでマルチモーダル生成モデルをトレーニングすることで、ユーザは有害で安全でない、議論の余地のない、文化的に不適切なアウトプットにさらされる可能性がある。
我々は、安全な埋め込みと、より安全な画像を生成するために、潜伏空間の重み付け可能な総和による修正拡散プロセスを活用する。
安全と検閲のトレードオフを特定し、倫理的AIモデルの開発に必要な視点を提示します。
論文 参考訳(メタデータ) (2024-11-21T09:47:13Z) - Controllable Safety Alignment: Inference-Time Adaptation to Diverse Safety Requirements [46.79887158348167]
大規模言語モデル(LLM)の安全性アライメントに関する現在のパラダイムは、一大のアプローチに従っている。
我々は,モデルの再トレーニングを伴わず,多様な安全要件に適応するフレームワークとして,制御可能な安全アライメント(CoSA)を提案する。
論文 参考訳(メタデータ) (2024-10-11T16:38:01Z) - Modular Control Architecture for Safe Marine Navigation: Reinforcement Learning and Predictive Safety Filters [0.0]
強化学習は複雑なシナリオに適応するためにますます使われていますが、安全性と安定性を保証するための標準フレームワークは欠如しています。
予測安全フィルタ(PSF)は、明示的な制約処理を伴わずに、学習ベースの制御における制約満足度を確保する、有望なソリューションを提供する。
この手法を海洋航法に適用し,シミュレーションされたCybership IIモデル上でRLとPSFを組み合わせた。
その結果, PSF が安全維持に有効であることは, RL エージェントの学習速度と性能を損なうことなく示され, PSF を使用せずに標準 RL エージェントに対して評価された。
論文 参考訳(メタデータ) (2023-12-04T12:37:54Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。