論文の概要: CyRes -- Avoiding Catastrophic Failure in Connected and Autonomous
Vehicles (Extended Abstract)
- arxiv url: http://arxiv.org/abs/2006.14890v3
- Date: Fri, 3 Jul 2020 10:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 11:41:39.409544
- Title: CyRes -- Avoiding Catastrophic Failure in Connected and Autonomous
Vehicles (Extended Abstract)
- Title(参考訳): cyres --connected and autonomous vehicle (extended abstract) による壊滅的障害の回避
- Authors: Carsten Maple and Peter Davies and Kerstin Eder and Chris Hankin and
Greg Chance and Gregory Epiphaniou
- Abstract要約: 本稿では,運用型サイバーレジリエンス手法であるCyResを紹介する。
CyResの方法論自体は、裁判所や公的に指名された規制当局によってテストすることができる。
オペレータがどのエビデンスを生成すべきかを理解し、そのエビデンスの品質を計測できるように設計されている。
- 参考スコア(独自算出の注目度): 5.382679710017696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches to cyber security and regulation in the automotive sector
cannot achieve the quality of outcome necessary to ensure the safe mass
deployment of advanced vehicle technologies and smart mobility systems. Without
sustainable resilience hard-fought public trust will evaporate, derailing
emerging global initiatives to improve the efficiency, safety and environmental
impact of future transport. This paper introduces an operational cyber
resilience methodology, CyRes, that is suitable for standardisation. The CyRes
methodology itself is capable of being tested in court or by publicly appointed
regulators. It is designed so that operators understand what evidence should be
produced by it and are able to measure the quality of that evidence. The
evidence produced is capable of being tested in court or by publicly appointed
regulators. Thus, the real-world system to which the CyRes methodology has been
applied is capable of operating at all times and in all places with a legally
and socially acceptable value of negative consequence.
- Abstract(参考訳): 自動車部門における既存のサイバーセキュリティと規制へのアプローチは、高度な車両技術とスマートモビリティシステムの安全な大量展開を保証するために必要な結果の質を達成できない。
持続可能なレジリエンスがなければ、公共の信頼は蒸発し、将来の輸送の効率性、安全性、環境への影響を改善するための新興のグローバルイニシアチブが脱線する。
本稿では,標準化に適した運用型サイバーレジリエンス手法であるCyResを紹介する。
CyResの方法論自体は、裁判所や公的に指名された規制当局によってテストすることができる。
オペレータは、どの証拠が生成されるべきかを理解し、その証拠の品質を測定することができるように設計されている。
得られた証拠は、法廷または公的に任命された規制当局によって試験することができる。
このように、CyRes方法論が適用された現実世界のシステムは、法的に社会的に許容されるネガティブな結果の値で、常にあらゆる場所で運用することができる。
関連論文リスト
- CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Security and Interpretability in Automotive Systems [0.0]
送信者認証機構がないため、CAN(Controller Area Network)はセキュリティ上の脅威に対して脆弱である。
この論文では、電子制御ユニット(ECU)の消費電力測定と分類モデルを用いてECUの送信状態を決定する送信者認証手法を実証する。
論文 参考訳(メタデータ) (2022-12-23T01:33:09Z) - Rationale-aware Autonomous Driving Policy utilizing Safety Force Field
implemented on CARLA Simulator [4.456405816364174]
本稿では,車両群に対する予測器を提案し,その予測器に基づいて統合運転ポリシーを提案する。
この政策は、各条件ごとに個別の計画を持っていないが、安全電位を用いて、交通流に混入した人間のような運転を目標としている。
論文 参考訳(メタデータ) (2022-11-18T13:49:51Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Safe Reinforcement Learning via Confidence-Based Filters [78.39359694273575]
我々は,標準的な強化学習技術を用いて学習した名目政策に対して,国家安全の制約を認定するための制御理論的アプローチを開発する。
我々は、正式な安全保証を提供し、我々のアプローチの有効性を実証的に実証する。
論文 参考訳(メタデータ) (2022-07-04T11:43:23Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Runtime Safety Assurance Using Reinforcement Learning [37.61747231296097]
本稿では,安全でない状況を高精度に識別できるメタコントローラを設計することを目的とする。
我々は,RTSAの設計をマルコフ決定プロセス(MDP)と組み合わせ,強化学習(RL)を用いて解決する。
論文 参考訳(メタデータ) (2020-10-20T20:54:46Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Formal Verification of End-to-End Learning in Cyber-Physical Systems:
Progress and Challenges [7.955313479061443]
コンピュータチェックによる正式な正当性を構築することで、自律システムの安全性を確保することができるかもしれない。
本稿では,既存の形式的検証手法に基づく3つの仮定について述べる。
形式的検証による証拠の強度向上に向けた予備的な研究を要約する。
論文 参考訳(メタデータ) (2020-06-15T16:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。