論文の概要: Designing Latent Safety Filters using Pre-Trained Vision Models
- arxiv url: http://arxiv.org/abs/2509.14758v1
- Date: Thu, 18 Sep 2025 09:06:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.138756
- Title: Designing Latent Safety Filters using Pre-Trained Vision Models
- Title(参考訳): 事前学習型視覚モデルを用いた潜時安全フィルタの設計
- Authors: Ihab Tabbara, Yuxuan Yang, Ahmad Hamzeh, Maxwell Astafyev, Hussein Sibai,
- Abstract要約: 事前学習された視覚モデル(PVR)は、様々なロボティクス領域における制御に有効な知覚バックボーンであることが示されている。
我々は、障害セットを定義する分類器、ハミルトン・ヤコビ(HJ)リーチビリティに基づく安全フィルタ、潜在世界モデルのためのバックボーンとしてこれらを用いる。
バックボーンであるモデルのトレーニングにおいて、スクラッチからのトレーニング、微調整、PVRの凍結のトレードオフについて論じる。
- 参考スコア(独自算出の注目度): 1.3085000473675192
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Ensuring safety of vision-based control systems remains a major challenge hindering their deployment in critical settings. Safety filters have gained increased interest as effective tools for ensuring the safety of classical control systems, but their applications in vision-based control settings have so far been limited. Pre-trained vision models (PVRs) have been shown to be effective perception backbones for control in various robotics domains. In this paper, we are interested in examining their effectiveness when used for designing vision-based safety filters. We use them as backbones for classifiers defining failure sets, for Hamilton-Jacobi (HJ) reachability-based safety filters, and for latent world models. We discuss the trade-offs between training from scratch, fine-tuning, and freezing the PVRs when training the models they are backbones for. We also evaluate whether one of the PVRs is superior across all tasks, evaluate whether learned world models or Q-functions are better for switching decisions to safe policies, and discuss practical considerations for deploying these PVRs on resource-constrained devices.
- Abstract(参考訳): 視覚ベースの制御システムの安全性を確保することは、重要な環境でのデプロイメントを妨げる大きな課題である。
安全フィルタは、古典的な制御システムの安全性を確保する効果的なツールとして注目されているが、視覚ベースの制御設定におけるそれらの応用は、これまで限られてきた。
事前学習された視覚モデル(PVR)は、様々なロボティクス領域における制御に有効な知覚バックボーンであることが示されている。
本稿では,視覚に基づく安全フィルタの設計における有効性を検討することに関心がある。
我々は、障害セットを定義する分類器、ハミルトン・ヤコビ(HJ)リーチビリティに基づく安全フィルタ、潜在世界モデルのためのバックボーンとしてそれらを使用する。
バックボーンであるモデルのトレーニングにおいて、スクラッチからのトレーニング、微調整、PVRの凍結のトレードオフについて論じる。
また、PVRの1つが全てのタスクにおいて優れているかどうかを評価し、学習された世界モデルやQ-関数が安全なポリシーに切り替える上で優れているかどうかを評価し、これらのPVRをリソース制約されたデバイスにデプロイする上での実践的考察について議論する。
関連論文リスト
- Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - Pre-Trained Vision Models as Perception Backbones for Safety Filters in Autonomous Driving [2.4381063627159523]
エンド・ツー・エンドのビジョンに基づく自動運転において、安全は依然として大きな関心事である。
我々は、凍結した事前学習された視覚表現モデルを知覚バックボーンとして使用し、視覚に基づく安全フィルタを設計する。
この状況下では、4つの一般的な事前学習型視覚モデルのオフライン性能を実証的に評価する。
論文 参考訳(メタデータ) (2024-10-29T22:59:23Z) - Modular Control Architecture for Safe Marine Navigation: Reinforcement Learning and Predictive Safety Filters [0.0]
強化学習は複雑なシナリオに適応するためにますます使われていますが、安全性と安定性を保証するための標準フレームワークは欠如しています。
予測安全フィルタ(PSF)は、明示的な制約処理を伴わずに、学習ベースの制御における制約満足度を確保する、有望なソリューションを提供する。
この手法を海洋航法に適用し,シミュレーションされたCybership IIモデル上でRLとPSFを組み合わせた。
その結果, PSF が安全維持に有効であることは, RL エージェントの学習速度と性能を損なうことなく示され, PSF を使用せずに標準 RL エージェントに対して評価された。
論文 参考訳(メタデータ) (2023-12-04T12:37:54Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Scalable Synthesis of Verified Controllers in Deep Reinforcement
Learning [0.0]
高品質の安全シールドを合成できる自動検証パイプラインを提案します。
私たちの重要な洞察は、事前に計算された安全シールドを使用して神経コントローラのトレーニングを制限し、神経コントローラから安全検証を分離することを含みます。
実測的な高次元深部RLベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-04-20T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。