論文の概要: Achieving the Safety and Security of the End-to-End AV Pipeline
- arxiv url: http://arxiv.org/abs/2409.03899v1
- Date: Thu, 5 Sep 2024 20:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 17:20:24.162198
- Title: Achieving the Safety and Security of the End-to-End AV Pipeline
- Title(参考訳): エンド・ツー・エンドAVパイプラインの安全性と安全性
- Authors: Noah T. Curran, Minkyoung Cho, Ryan Feng, Liangkai Liu, Brian Jay Tang, Pedram MohajerAnsari, Alkim Domeke, Mert D. Pesé, Kang G. Shin,
- Abstract要約: 本稿では,自律走行車(AV)の安全性とセキュリティ研究の現状について詳しく述べる。
我々は,AV監視,センサシステムの信頼性,AVスタックのセキュリティ,アルゴリズム的堅牢性,安全な環境相互作用など,この研究領域に関する主要な研究課題のセクションを提供する。
それぞれの節の結論として,結論が付かない今後の研究課題を提案する。
- 参考スコア(独自算出の注目度): 9.714684348295707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the current landscape of autonomous vehicle (AV) safety and security research, there are multiple isolated problems being tackled by the community at large. Due to the lack of common evaluation criteria, several important research questions are at odds with one another. For instance, while much research has been conducted on physical attacks deceiving AV perception systems, there is often inadequate investigations on working defenses and on the downstream effects of safe vehicle control. This paper provides a thorough description of the current state of AV safety and security research. We provide individual sections for the primary research questions that concern this research area, including AV surveillance, sensor system reliability, security of the AV stack, algorithmic robustness, and safe environment interaction. We wrap up the paper with a discussion of the issues that concern the interactions of these separate problems. At the conclusion of each section, we propose future research questions that still lack conclusive answers. This position article will serve as an entry point to novice and veteran researchers seeking to partake in this research domain.
- Abstract(参考訳): 自律走行車(AV)の安全性とセキュリティ研究の現在の状況では、コミュニティ全体では、複数の独立した問題が取り組まれている。
共通の評価基準が欠如しているため、いくつかの重要な研究課題が互いに相反している。
例えば、AV知覚システムに影響を及ぼす物理的攻撃について多くの研究がなされているが、労働防衛や安全な車両制御の下流への影響について、しばしば不十分な調査が行われている。
本稿では,AVの安全性とセキュリティ研究の現状について概説する。
我々は,AV監視,センサシステムの信頼性,AVスタックのセキュリティ,アルゴリズム的堅牢性,安全な環境相互作用など,この研究領域に関する主要な研究課題について,個別のセクションを提供する。
本稿は、これらの異なる問題の相互作用に関する問題に関する議論をまとめてまとめる。
それぞれの節の結論として,結論が付かない今後の研究課題を提案する。
本稿は、この研究領域への参加を目指す初心者およびベテラン研究者のエントリーポイントとして機能する。
関連論文リスト
- Insider Threats Mitigation: Role of Penetration Testing [0.0]
本研究は,インサイダー脅威防御の重要部分としての浸透試験の知識の向上を目的とする。
我々は、異なる業界で浸透テストがどのように使われているか、実世界の実装を用いたケーススタディについて検討し、企業が克服すべき障害と制約について議論する。
論文 参考訳(メタデータ) (2024-07-24T15:14:48Z) - Cross-Modality Safety Alignment [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - PsySafe: A Comprehensive Framework for Psychological-based Attack, Defense, and Evaluation of Multi-agent System Safety [70.84902425123406]
大規模言語モデル(LLM)で拡張されたマルチエージェントシステムは、集団知能において重要な能力を示す。
しかし、悪意のある目的のためにこのインテリジェンスを誤用する可能性があり、重大なリスクが生じる。
本研究では,エージェント心理学を基盤とした枠組み(PsySafe)を提案し,エージェントのダークパーソナリティ特性がリスク行動にどう影響するかを明らかにする。
実験の結果,エージェント間の集団的危険行動,エージェントが危険な行動を行う際の自己反射,エージェントの心理的評価と危険な行動との相関など,いくつかの興味深い現象が明らかになった。
論文 参考訳(メタデータ) (2024-01-22T12:11:55Z) - The Last Decade in Review: Tracing the Evolution of Safety Assurance
Cases through a Comprehensive Bibliometric Analysis [7.431812376079826]
安全保証は、自動車、航空宇宙、原子力など、様々な分野において最重要事項である。
安全保証ケースを使用することで、生成されたシステム機能の正しさを検証することができ、システム障害を防止することができる。
論文 参考訳(メタデータ) (2023-11-13T17:34:23Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety of autonomous vehicles: A survey on Model-based vs. AI-based
approaches [1.370633147306388]
AVの全体制御アーキテクチャを定義するための関連手法と概念について検討する。
このレビュープロセスを通じて、モデルベースの方法とAIベースのアプローチのいずれかを使用する研究を強調することを意図している。
本稿では,安全性検証技術と安全フレームワークの標準化・一般化という,AVの安全性を保証するための手法について論じる。
論文 参考訳(メタデータ) (2023-05-29T08:05:32Z) - New Challenges in Reinforcement Learning: A Survey of Security and
Privacy [26.706957408693363]
強化学習(Reinforcement Learning, RL)は、AIの最も重要な分野のひとつ。
RLは医療、データ市場、自動運転、ロボット工学など、さまざまな分野で広く採用されている。
これらのアプリケーションやシステムは、セキュリティやプライバシ攻撃に弱いことが示されている。
論文 参考訳(メタデータ) (2022-12-31T12:30:43Z) - Coverage based testing for V&V and Safety Assurance of Self-driving
Autonomous Vehicles: A Systematic Literature Review [1.1602089225841632]
自動運転車(SAV)は、業界だけでなく一般の人々によって毎日より多くの関心を集めています。
SAVが公道に到達する際の大きなハードルの1つは、SAVの安全面における公衆の信頼の欠如である。
世界中の研究者は、V&V(Verification and Validation)とSAVの安全性保証にカバレッジベースのテストを使用している。
論文 参考訳(メタデータ) (2021-03-07T14:23:04Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。