論文の概要: Gameplay Filters: Robust Zero-Shot Safety through Adversarial Imagination
- arxiv url: http://arxiv.org/abs/2405.00846v3
- Date: Thu, 29 Aug 2024 15:53:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 19:08:38.964888
- Title: Gameplay Filters: Robust Zero-Shot Safety through Adversarial Imagination
- Title(参考訳): 対戦型イマジネーションによるロバストゼロショットの安全性
- Authors: Duy P. Nguyen, Kai-Chieh Hsu, Wenhao Yu, Jie Tan, Jaime F. Fisac,
- Abstract要約: 本稿では,シミュレーション学習された安全戦略と仮想敵との仮説的一致を連続的に再現する新しい種類の予測安全フィルタを提案する。
本研究では, (36-D) 四元体力学の1次全次安全フィルタを用いて, アプローチのスケーラビリティと堅牢性を実証する。
- 参考スコア(独自算出の注目度): 12.548355269509882
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the impressive recent advances in learning-based robot control, ensuring robustness to out-of-distribution conditions remains an open challenge. Safety filters can, in principle, keep arbitrary control policies from incurring catastrophic failures by overriding unsafe actions, but existing solutions for complex (e.g., legged) robot dynamics do not span the full motion envelope and instead rely on local, reduced-order models. These filters tend to overly restrict agility and can still fail when perturbed away from nominal conditions. This paper presents the gameplay filter, a new class of predictive safety filter that continually plays out hypothetical matches between its simulation-trained safety strategy and a virtual adversary co-trained to invoke worst-case events and sim-to-real error, and precludes actions that would cause it to fail down the line. We demonstrate the scalability and robustness of the approach with a first-of-its-kind full-order safety filter for (36-D) quadrupedal dynamics. Physical experiments on two different quadruped platforms demonstrate the superior zero-shot effectiveness of the gameplay filter under large perturbations such as tugging and unmodeled terrain.
- Abstract(参考訳): 学習ベースのロボット制御の目覚ましい進歩にもかかわらず、アウト・オブ・ディストリビューション条件に対する堅牢性を保証することは、依然としてオープンな課題である。
安全フィルタは、原則として、安全でないアクションをオーバーライドすることで、破滅的な失敗を引き起こすための任意の制御ポリシーを維持することができるが、複雑な(例えば、脚のついた)ロボットダイナミクスのための既存のソリューションは、フルモーションエンベロープにまたがらず、局所的な、縮小順序モデルに依存している。
これらのフィルタは、過度にアジリティを制限し、名目上の条件から遠ざかっても失敗する傾向がある。
本稿では,シミュレーション学習された安全戦略と,最悪のケースイベントやシム・ツー・リアルエラーを発生させるために訓練された仮想敵との仮説整合を連続的に行う新しい種類の予測安全フィルタであるゲームプレイフィルタについて述べる。
本研究では, (36-D) 四元体力学の1次全次安全フィルタを用いて, アプローチのスケーラビリティと堅牢性を実証する。
2つの異なる四角いプラットフォーム上での物理実験は、タグ付けや非モデル化地形のような大きな摂動下でのゲームプレイフィルタのゼロショット効果が優れていることを示した。
関連論文リスト
- Generalizing Safety Beyond Collision-Avoidance via Latent-Space Reachability Analysis [6.267574471145217]
Hamilton-Jacobi (J) は、ロボットが安全でない状態を同時に検出し、アクションを生成するための厳格なフレームワークである。
生観測データを直接操作するハミルトン・ヤコビ到達可能性の一般化であるLa-space Safety Filtersを提案する。
論文 参考訳(メタデータ) (2025-02-02T22:00:20Z) - Pre-Trained Vision Models as Perception Backbones for Safety Filters in Autonomous Driving [2.4381063627159523]
エンド・ツー・エンドのビジョンに基づく自動運転において、安全は依然として大きな関心事である。
我々は、凍結した事前学習された視覚表現モデルを知覚バックボーンとして使用し、視覚に基づく安全フィルタを設計する。
この状況下では、4つの一般的な事前学習型視覚モデルのオフライン性能を実証的に評価する。
論文 参考訳(メタデータ) (2024-10-29T22:59:23Z) - ReGentS: Real-World Safety-Critical Driving Scenario Generation Made Stable [88.08120417169971]
機械学習に基づく自律運転システムは、現実世界のデータでは稀な安全クリティカルなシナリオで課題に直面していることが多い。
この研究は、軌道最適化によって複雑な現実世界の通常のシナリオを変更することによって、安全クリティカルな運転シナリオを生成することを検討する。
提案手法は、頑健なプランナーの訓練には役に立たない非現実的な発散軌道と避けられない衝突シナリオに対処する。
論文 参考訳(メタデータ) (2024-09-12T08:26:33Z) - SAFE-GIL: SAFEty Guided Imitation Learning for Robotic Systems [15.782203322922017]
安全に配慮した行動クローニングポリシーを学習するための設計時手法であるSAFE-GILを提案する。
我々は,データ収集中にシステム内の敵対的障害を注入し,専門家を安全クリティカルな状態へ誘導する。
この障害注入は、システムがテスト時に遭遇する可能性のある潜在的なポリシーエラーをシミュレートする。
論文 参考訳(メタデータ) (2024-04-08T07:25:25Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - A Multiplicative Value Function for Safe and Efficient Reinforcement
Learning [131.96501469927733]
本稿では,安全評論家と報酬評論家からなる新しい乗法値関数を持つモデルフリーRLアルゴリズムを提案する。
安全評論家は、制約違反の確率を予測し、制限のないリターンのみを見積もる報酬批評家を割引する。
安全制約を付加した古典的RLベンチマークや、画像を用いたロボットナビゲーションタスク、生のライダースキャンを観察する4つの環境において、本手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-07T18:29:15Z) - Modular Safety-Critical Control of Legged Robots [0.0]
脚付きロボットの操作時の安全上の懸念に対処し、広く使用できるようにする必要がある。
本研究は,脚付きロボットの安全性,すなわち転倒の可能性を低下させるモジュール型安全フィルタを提案する。
論文 参考訳(メタデータ) (2023-03-04T11:36:21Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。