論文の概要: Security and Privacy for Artificial Intelligence: Opportunities and
Challenges
- arxiv url: http://arxiv.org/abs/2102.04661v1
- Date: Tue, 9 Feb 2021 06:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 14:56:31.948862
- Title: Security and Privacy for Artificial Intelligence: Opportunities and
Challenges
- Title(参考訳): 人工知能のセキュリティとプライバシー : 機会と課題
- Authors: Ayodeji Oseni, Nour Moustafa, Helge Janicke, Peng Liu, Zahir Tari and
Athanasios Vasilakos
- Abstract要約: 近年、ほとんどのAIモデルは高度なハッキング技術に弱い。
この課題は、敵AIの研究努力を共同で進めるきっかけとなった。
我々は、AIアプリケーションに対する敵攻撃を実証する総合的なサイバーセキュリティレビューを提示する。
- 参考スコア(独自算出の注目度): 11.368470074697747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increased adoption of Artificial Intelligence (AI) presents an
opportunity to solve many socio-economic and environmental challenges; however,
this cannot happen without securing AI-enabled technologies. In recent years,
most AI models are vulnerable to advanced and sophisticated hacking techniques.
This challenge has motivated concerted research efforts into adversarial AI,
with the aim of developing robust machine and deep learning models that are
resilient to different types of adversarial scenarios. In this paper, we
present a holistic cyber security review that demonstrates adversarial attacks
against AI applications, including aspects such as adversarial knowledge and
capabilities, as well as existing methods for generating adversarial examples
and existing cyber defence models. We explain mathematical AI models,
especially new variants of reinforcement and federated learning, to demonstrate
how attack vectors would exploit vulnerabilities of AI models. We also propose
a systematic framework for demonstrating attack techniques against AI
applications and reviewed several cyber defences that would protect AI
applications against those attacks. We also highlight the importance of
understanding the adversarial goals and their capabilities, especially the
recent attacks against industry applications, to develop adaptive defences that
assess to secure AI applications. Finally, we describe the main challenges and
future research directions in the domain of security and privacy of AI
technologies.
- Abstract(参考訳): 人工知能(AI)の採用の増加は、多くの社会経済的・環境的な課題を解決する機会を提供するが、AI対応技術を確保しなければ実現できない。
近年、ほとんどのAIモデルは高度なハッキング技術に脆弱です。
この課題は、さまざまな種類の敵対的シナリオに回復力のある堅牢なマシンおよびディープラーニングモデルの開発を目的として、敵対的AIに関する共同研究を動機づけています。
本稿では、敵対的知識と能力などの側面を含むAIアプリケーションに対する敵対的攻撃と、敵対的な例と既存のサイバー防御モデルを生成する既存の方法を示す包括的なサイバーセキュリティレビューを紹介します。
我々は、数学的AIモデル、特に強化と連合学習の新しいバリエーションを説明し、攻撃ベクトルがAIモデルの脆弱性をどのように悪用するかを示す。
また、AIアプリケーションに対する攻撃技術を実証するための体系的なフレームワークを提案し、これらの攻撃からAIアプリケーションを保護するいくつかのサイバー防御を見直しました。
また、AIアプリケーションをセキュアに評価する適応型防御を開発するために、敵の目標とその能力、特に最近の産業アプリケーションに対する攻撃を理解することの重要性を強調します。
最後に、AI技術のセキュリティとプライバシの分野における主な課題と今後の研究方向性について説明する。
関連論文リスト
- Killer Apps: Low-Speed, Large-Scale AI Weapons [2.573638046525981]
人工知能(AI)と機械学習(ML)の進歩は、戦争と安全保障における新たな課題と機会を提示する。
本稿では,AI兵器の概念,その展開,検出,潜在的な対策について検討する。
論文 参考訳(メタデータ) (2024-01-14T12:09:40Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Towards more Practical Threat Models in Artificial Intelligence Security [71.53333444240076]
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
我々の論文は、人工知能のセキュリティにおけるより実用的な脅威モデルを研究するための行動である。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - A Survey on Explainable Artificial Intelligence for Cybersecurity [14.648580959079787]
説明可能な人工知能(XAI)は、決定と行動に対して明確かつ解釈可能な説明を提供する機械学習モデルを作成することを目的としている。
ネットワークサイバーセキュリティの分野では、XAIは、サイバー脅威の振る舞いをよりよく理解することで、ネットワークセキュリティへのアプローチ方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-03-07T22:54:18Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Secure and Trustworthy Artificial Intelligence-Extended Reality (AI-XR)
for Metaverses [14.042795506083117]
我々は,AI-XRメタバースアプリケーションにおける各種AI技術の利用に伴う,セキュリティ,プライバシ,信頼性の面について議論する。
我々は、セキュアでプライベートで堅牢で信頼できるAI-XRアプリケーションを開発するために活用できる潜在的なソリューションの分類を提示する。
論文 参考訳(メタデータ) (2022-10-24T14:26:59Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Artificial Intelligence-Based Smart Grid Vulnerabilities and Potential
Solutions for Fake-Normal Attacks: A Short Review [0.0]
スマートグリッドシステムは電力業界にとって重要なものだが、その高度なアーキテクチャ設計と運用によって、多くのサイバーセキュリティの脅威にさらされている。
人工知能(AI)ベースの技術は、さまざまなコンピュータ設定でサイバー攻撃を検出することで、ますます人気が高まっている。
現在のAIシステムは、GAN(Generative Adversarial Networks)のような高度な敵系が最近出現したため、公開され、消滅している。
論文 参考訳(メタデータ) (2022-02-14T21:41:36Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。