論文の概要: Position: A taxonomy for reporting and describing AI security incidents
- arxiv url: http://arxiv.org/abs/2412.14855v2
- Date: Wed, 26 Feb 2025 07:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:52:43.578185
- Title: Position: A taxonomy for reporting and describing AI security incidents
- Title(参考訳): ポジション:AIセキュリティインシデントを報告し記述するための分類
- Authors: Lukas Bieringer, Kevin Paeth, Jochen Stängler, Andreas Wespi, Alexandre Alahi, Kathrin Grosse,
- Abstract要約: AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
- 参考スコア(独自算出の注目度): 57.98317583163334
- License:
- Abstract: As AI usage becomes more ubiquitous, AI incident reporting is both practiced increasingly in industry and mandated by regulatory requirements. At the same time, it is established that AI systems are exploited in practice by a growing number of security threats. Yet, organizations and practitioners lack necessary guidance in describing AI security incidents. In this position paper, we argue that specific taxonomies are required to describe and report security incidents of AI systems. In other words, existing frameworks for either non-AI security or generic AI safety incident reporting are insufficient to capture the specific properties of AI security. To demonstrate our position, we offer an AI security incident taxonomy and highlight relevant properties, such as machine readability and integration with existing frameworks. We have derived this proposal from interviews with experts, aiming for standardized reporting of AI security incidents, which meets the requirements of affected stakeholder groups. We hope that this taxonomy sparks discussions and eventually allows the sharing of AI security incidents across organizations, enabling more secure AI.
- Abstract(参考訳): AIの利用がよりユビキタスになると、AIインシデントレポートは業界でますます実践され、規制要件によって強制されるようになる。
同時に、AIシステムは、多くのセキュリティ脅威によって実際に悪用されていることが確立されている。
しかし、組織や実践者は、AIセキュリティインシデントを説明するために必要なガイダンスを欠いている。
本稿では,AIシステムのセキュリティインシデントを記述・報告するために,特定の分類学が必要であることを論じる。
言い換えれば、非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
私たちの立場を示すために、AIセキュリティインシデント分類を提供し、マシン可読性や既存のフレームワークとの統合など、関連する特性を強調します。
我々は、影響を受けるステークホルダーグループの要求を満たすAIセキュリティインシデントを標準化した報告を目指して、専門家とのインタビューからこの提案を導いた。
この分類が議論を引き起こし、最終的には組織間でAIセキュリティインシデントを共有することで、よりセキュアなAIを可能にすることを願っている。
関連論文リスト
- Standardised schema and taxonomy for AI incident databases in critical digital infrastructure [2.209921757303168]
重要なデジタルインフラストラクチャへの人工知能の迅速な展開は、重大なリスクをもたらす。
既存のデータベースには、一貫性のあるデータ収集と分析に必要な標準化された構造だけでなく、粒度も欠けている。
この研究は、AIインシデントデータベースのための標準化されたスキーマと分類を提案し、セクタ全体でAIインシデントの詳細と構造化されたドキュメントを可能にする。
論文 参考訳(メタデータ) (2025-01-28T15:59:01Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - AI Cards: Towards an Applied Framework for Machine-Readable AI and Risk Documentation Inspired by the EU AI Act [2.1897070577406734]
その重要性にもかかわらず、AI法に沿ったAIとリスクドキュメントの作成を支援するための標準やガイドラインが欠如している。
提案するAIカードは,AIシステムの意図した使用を表現するための,新しい総合的なフレームワークである。
論文 参考訳(メタデータ) (2024-06-26T09:51:49Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Adversarial Machine Learning and Cybersecurity: Risks, Challenges, and
Legal Implications [0.4665186371356556]
2022年7月、ジョージタウン大学のCenter for Security and Emerging TechnologyとStanford Cyber Policy CenterのGeopolitics, Technology, and Governanceプログラムが、人工知能システムの脆弱性と従来型のソフトウェア脆弱性との関係を調べる専門家のワークショップを開催した。
議論されたトピックは、AI脆弱性が標準的なサイバーセキュリティプロセスの下でどのように扱われるか、現在の障壁がAI脆弱性に関する情報の正確な共有を妨げていること、AIシステムに対する敵対的攻撃に関連する法的問題、政府支援がAI脆弱性の管理と緩和を改善する可能性のある潜在的な領域である。
論文 参考訳(メタデータ) (2023-05-23T22:27:53Z) - Adversarial AI in Insurance: Pervasiveness and Resilience [0.0]
本稿では,AIシステムを騙し,誤った出力を生成するために,修正された入力データを作成することからなる敵攻撃について検討する。
防御法や予防システムについては,少数発・ゼロ発のマルチラベリングを考慮し論じる。
関心が高まりつつある関連するトピックは、AIとMLコンポーネントを組み込んだシステムの検証と検証である。
論文 参考訳(メタデータ) (2023-01-17T08:49:54Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Vulnerabilities of Connectionist AI Applications: Evaluation and Defence [0.0]
この記事では、コネクショナリスト人工知能(AI)アプリケーションのITセキュリティを扱い、完全性への脅威に焦点を当てます。
脅威の包括的リストと軽減の可能性は、最先端の文献をレビューすることによって提示される。
緩和に関する議論は同様に、AIシステム自体のレベルに限定されず、むしろサプライチェーンの文脈でAIシステムを見ることを提唱している。
論文 参考訳(メタデータ) (2020-03-18T12:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。