論文の概要: Adversarial Machine Learning and Cybersecurity: Risks, Challenges, and
Legal Implications
- arxiv url: http://arxiv.org/abs/2305.14553v1
- Date: Tue, 23 May 2023 22:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 21:26:31.595219
- Title: Adversarial Machine Learning and Cybersecurity: Risks, Challenges, and
Legal Implications
- Title(参考訳): 敵対的機械学習とサイバーセキュリティ: リスク、課題、法的意義
- Authors: Micah Musser, Andrew Lohn, James X. Dempsey, Jonathan Spring, Ram
Shankar Siva Kumar, Brenda Leong, Christina Liaghati, Cindy Martinez, Crystal
D. Grant, Daniel Rohrer, Heather Frase, Jonathan Elliott, John Bansemer,
Mikel Rodriguez, Mitt Regan, Rumman Chowdhury, Stefan Hermanek
- Abstract要約: 2022年7月、ジョージタウン大学のCenter for Security and Emerging TechnologyとStanford Cyber Policy CenterのGeopolitics, Technology, and Governanceプログラムが、人工知能システムの脆弱性と従来型のソフトウェア脆弱性との関係を調べる専門家のワークショップを開催した。
議論されたトピックは、AI脆弱性が標準的なサイバーセキュリティプロセスの下でどのように扱われるか、現在の障壁がAI脆弱性に関する情報の正確な共有を妨げていること、AIシステムに対する敵対的攻撃に関連する法的問題、政府支援がAI脆弱性の管理と緩和を改善する可能性のある潜在的な領域である。
- 参考スコア(独自算出の注目度): 0.4665186371356556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In July 2022, the Center for Security and Emerging Technology (CSET) at
Georgetown University and the Program on Geopolitics, Technology, and
Governance at the Stanford Cyber Policy Center convened a workshop of experts
to examine the relationship between vulnerabilities in artificial intelligence
systems and more traditional types of software vulnerabilities. Topics
discussed included the extent to which AI vulnerabilities can be handled under
standard cybersecurity processes, the barriers currently preventing the
accurate sharing of information about AI vulnerabilities, legal issues
associated with adversarial attacks on AI systems, and potential areas where
government support could improve AI vulnerability management and mitigation.
This report is meant to accomplish two things. First, it provides a
high-level discussion of AI vulnerabilities, including the ways in which they
are disanalogous to other types of vulnerabilities, and the current state of
affairs regarding information sharing and legal oversight of AI
vulnerabilities. Second, it attempts to articulate broad recommendations as
endorsed by the majority of participants at the workshop.
- Abstract(参考訳): 2022年7月、ジョージタウン大学の center for security and emerging technology (cset) と、スタンフォードサイバー政策センターの geopolitics, technology, and governance プログラムは、人工知能システムの脆弱性と、より伝統的なタイプのソフトウェア脆弱性との関係を調べる専門家のワークショップを開催した。
議論されたトピックには、標準のサイバーセキュリティプロセスの下でai脆弱性が処理できる範囲、現在、ai脆弱性に関する情報の正確な共有を妨げる障壁、aiシステムに対する敵対的攻撃に関連する法的問題、および政府がai脆弱性の管理と緩和を改善する可能性のある領域が含まれる。
この報告は2つのことを成し遂げることを目的としている。
まず、AI脆弱性に関するハイレベルな議論を提供する。それらは、それらが他のタイプの脆弱性と無関係である方法や、情報共有とAI脆弱性の法的監視に関する現在の状況などだ。
第2に,ワークショップの参加者の大半が支持しているような,幅広い推奨事項の明確化を試みている。
関連論文リスト
- Establishing Minimum Elements for Effective Vulnerability Management in AI Software [4.067778725390327]
本稿では,AI脆弱性管理の最小要素と人工知能脆弱性データベース(AIVD)の確立について論じる。
AI脆弱性の公開、分析、カタログ化、文書化のための標準化されたフォーマットとプロトコルを提供する。
論文 参考訳(メタデータ) (2024-11-18T06:22:20Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Artificial Intelligence Ethics Education in Cybersecurity: Challenges
and Opportunities: a focus group report [10.547686057159309]
サイバーセキュリティにおけるAIツールの出現は多くの機会と不確実性を生み出している。
AIサイバーセキュリティ作業における“ブラックボックス”の精神の理解も、最も重要である。
将来のAI教育者や実践者は、厳格な技術トレーニングカリキュラムを実装することで、これらの問題に対処する必要がある。
論文 参考訳(メタデータ) (2023-11-02T00:08:07Z) - ExTRUST: Reducing Exploit Stockpiles with a Privacy-Preserving Depletion
System for Inter-State Relationships [4.349142920611964]
本稿では、複数の州で脆弱性とエクスプロイトのストックをプライベートに比較できるプライバシー保護手法を提案する。
システムをExtrustと呼び、拡張性があり、いくつかの攻撃シナリオに耐えられることを示す。
論文 参考訳(メタデータ) (2023-06-01T12:02:17Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - A System for Automated Open-Source Threat Intelligence Gathering and
Management [53.65687495231605]
SecurityKGはOSCTIの収集と管理を自動化するシステムである。
AIとNLP技術を組み合わせて、脅威行動に関する高忠実な知識を抽出する。
論文 参考訳(メタデータ) (2021-01-19T18:31:35Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Vulnerabilities of Connectionist AI Applications: Evaluation and Defence [0.0]
この記事では、コネクショナリスト人工知能(AI)アプリケーションのITセキュリティを扱い、完全性への脅威に焦点を当てます。
脅威の包括的リストと軽減の可能性は、最先端の文献をレビューすることによって提示される。
緩和に関する議論は同様に、AIシステム自体のレベルに限定されず、むしろサプライチェーンの文脈でAIシステムを見ることを提唱している。
論文 参考訳(メタデータ) (2020-03-18T12:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。