論文の概要: SoK: On the Semantic AI Security in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2203.05314v1
- Date: Thu, 10 Mar 2022 12:00:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 22:17:48.889119
- Title: SoK: On the Semantic AI Security in Autonomous Driving
- Title(参考訳): SoK:自動運転におけるセマンティックAIセキュリティについて
- Authors: Junjie Shen, Ningfei Wang, Ziwen Wan, Yunpeng Luo, Takami Sato,
Zhisheng Hu, Xinyang Zhang, Shengjian Guo, Zhenyu Zhong, Kang Li, Ziming
Zhao, Chunming Qiao, Qi Alfred Chen
- Abstract要約: 自律運転システムは、安全と運転判断の正しさをAIコンポーネントに依存している。
このようなAIコンポーネントレベルの脆弱性がシステムレベルでセマンティックに影響を及ぼすためには、非自明なセマンティックギャップに対処する必要がある。
本稿では,このような研究領域を汎用AIセキュリティとは対照的にセマンティックAIセキュリティと定義する。
- 参考スコア(独自算出の注目度): 34.47681432784334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous Driving (AD) systems rely on AI components to make safety and
correct driving decisions. Unfortunately, today's AI algorithms are known to be
generally vulnerable to adversarial attacks. However, for such AI
component-level vulnerabilities to be semantically impactful at the system
level, it needs to address non-trivial semantic gaps both (1) from the
system-level attack input spaces to those at AI component level, and (2) from
AI component-level attack impacts to those at the system level. In this paper,
we define such research space as semantic AI security as opposed to generic AI
security. Over the past 5 years, increasingly more research works are performed
to tackle such semantic AI security challenges in AD context, which has started
to show an exponential growth trend.
In this paper, we perform the first systematization of knowledge of such
growing semantic AD AI security research space. In total, we collect and
analyze 53 such papers, and systematically taxonomize them based on research
aspects critical for the security field. We summarize 6 most substantial
scientific gaps observed based on quantitative comparisons both vertically
among existing AD AI security works and horizontally with security works from
closely-related domains. With these, we are able to provide insights and
potential future directions not only at the design level, but also at the
research goal, methodology, and community levels. To address the most critical
scientific methodology-level gap, we take the initiative to develop an
open-source, uniform, and extensible system-driven evaluation platform, named
PASS, for the semantic AD AI security research community. We also use our
implemented platform prototype to showcase the capabilities and benefits of
such a platform using representative semantic AD AI attacks.
- Abstract(参考訳): 自律運転(AD)システムは、安全と正しい運転決定を行うためにAIコンポーネントに依存している。
残念ながら、今日のAIアルゴリズムは、一般的に敵の攻撃に弱いことが知られている。
しかし、そのようなAIコンポーネントレベルの脆弱性がシステムレベルでセマンティックに影響を及ぼすためには、(1)システムレベルの攻撃入力空間から(2)AIコンポーネントレベルの攻撃の影響と(2)システムレベルのものの両方に対処する必要がある。
本稿では,このような研究領域を汎用AIセキュリティとは対照的にセマンティックAIセキュリティと定義する。
過去5年間で、広告コンテキストにおけるこのようなセマンティックaiセキュリティの課題に取り組むための研究がますます増えており、指数関数的な成長傾向が示され始めている。
本稿では,このようなsemantic ad aiセキュリティ研究分野における知識の体系化を初めて実施する。
総合的に53の論文を収集・分析し,セキュリティ分野において重要な研究面に基づいて体系的に分類した。
我々は、既存のAD AIセキュリティワークと密接な関係のあるドメインのセキュリティワークとを垂直に比較して観察された6つの重要な科学的ギャップを要約する。
これらによって、設計レベルだけでなく、研究目標、方法論、コミュニティレベルにおいても、洞察と将来の方向性を提供することができます。
もっとも重要な科学的方法論レベルのギャップに対処するため、私たちは、AD AIセキュリティ研究コミュニティのための、PASSという、オープンソースで均一で拡張可能なシステム駆動評価プラットフォームの開発を主導しています。
私たちはまた、実装済みのプラットフォームプロトタイプを使用して、semantic ad ai攻撃を代表するプラットフォームの機能とメリットを示します。
関連論文リスト
- Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - The AI Security Pyramid of Pain [0.18820558426635298]
私たちは、AI固有の脅威を分類し優先順位付けするために、Painのサイバーセキュリティピラミッドに適応するフレームワークであるPainのAIセキュリティピラミッドを紹介します。
このフレームワークは、さまざまなレベルのAI脅威を理解し、対処するための構造化されたアプローチを提供する。
論文 参考訳(メタデータ) (2024-02-16T21:14:11Z) - Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - APPRAISE: a governance framework for innovation with AI systems [0.0]
EU人工知能法(英語: EU Artificial Intelligence Act、AIA)は、AIシステムの有害な影響を封じ込めようとする最初の重大な立法の試みである。
本稿では,AIイノベーションのためのガバナンスフレームワークを提案する。
このフレームワークは戦略変数と責任ある価値創造のギャップを埋める。
論文 参考訳(メタデータ) (2023-09-26T12:20:07Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。