論文の概要: Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities
- arxiv url: http://arxiv.org/abs/2402.07039v3
- Date: Fri, 26 Jul 2024 13:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 18:21:50.250522
- Title: Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities
- Title(参考訳): AIのための協調的な欠陥開示 - セキュリティ脆弱性を超えて
- Authors: Sven Cattell, Avijit Ghosh, Lucie-Aimée Kaffee,
- Abstract要約: 本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
- 参考スコア(独自算出の注目度): 1.3225694028747144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Harm reporting in Artificial Intelligence (AI) currently lacks a structured process for disclosing and addressing algorithmic flaws, relying largely on an ad-hoc approach. This contrasts sharply with the well-established Coordinated Vulnerability Disclosure (CVD) ecosystem in software security. While global efforts to establish frameworks for AI transparency and collaboration are underway, the unique challenges presented by machine learning (ML) models demand a specialized approach. To address this gap, we propose implementing a Coordinated Flaw Disclosure (CFD) framework tailored to the complexities of ML and AI issues. This paper reviews the evolution of ML disclosure practices, from ad hoc reporting to emerging participatory auditing methods, and compares them with cybersecurity norms. Our framework introduces innovations such as extended model cards, dynamic scope expansion, an independent adjudication panel, and an automated verification process. We also outline a forthcoming real-world pilot of CFD. We argue that CFD could significantly enhance public trust in AI systems. By balancing organizational and community interests, CFD aims to improve AI accountability in a rapidly evolving technological landscape.
- Abstract(参考訳): 人工知能(AI)におけるHarmレポートは、現在、アルゴリズムの欠陥を開示し、対処するための構造化されたプロセスが欠落しており、主にアドホックなアプローチに依存している。
これは、ソフトウェアセキュリティにおいて確立されたCoordinated Vulnerability Disclosure(CVD)エコシステムとは対照的である。
AIの透明性とコラボレーションのためのフレームワークを確立するためのグローバルな取り組みが進行中である一方で、マシンラーニング(ML)モデルが提示するユニークな課題には、特殊なアプローチが必要だ。
このギャップに対処するために、MLとAIの問題の複雑さに合わせて、協調的欠陥開示(CFD)フレームワークを実装することを提案する。
本稿では、アドホックな報告から新たな参加型監査手法まで、ML開示の実践の進化をレビューし、それらをサイバーセキュリティ基準と比較する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
また、近く登場するCFDの実世界のパイロットについても概説する。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
組織とコミュニティの関心のバランスをとることによって、CFDは、急速に進化する技術的状況において、AIの説明責任を改善することを目指している。
関連論文リスト
- AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Trust in Software Supply Chains: Blockchain-Enabled SBOM and the AIBOM
Future [28.67753149592534]
本研究では、SBOM共有のためのブロックチェーンを活用したアーキテクチャを導入し、検証可能な認証情報を活用して、選択的な開示を可能にする。
本稿では、AIシステムを含むSBOMの限界を広げ、AI Bill of Materials(AIBOM)という用語を創出する。
論文 参考訳(メタデータ) (2023-07-05T07:56:48Z) - ExTRUST: Reducing Exploit Stockpiles with a Privacy-Preserving Depletion
System for Inter-State Relationships [4.349142920611964]
本稿では、複数の州で脆弱性とエクスプロイトのストックをプライベートに比較できるプライバシー保護手法を提案する。
システムをExtrustと呼び、拡張性があり、いくつかの攻撃シナリオに耐えられることを示す。
論文 参考訳(メタデータ) (2023-06-01T12:02:17Z) - Exploring the Relevance of Data Privacy-Enhancing Technologies for AI
Governance Use Cases [1.5293427903448022]
異なるAIガバナンスの目的を情報フローのシステムとして見ることは有用である。
これらの異なるAIガバナンスソリューション間の相互運用性の重要性は明確になる。
論文 参考訳(メタデータ) (2023-03-15T21:56:59Z) - Towards a Responsible AI Development Lifecycle: Lessons From Information
Security [0.0]
本稿では,人工知能システムを開発するためのフレームワークを提案する。
特に,脅威モデリング,設計レビュー,浸透試験,インシデント応答の概念を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-06T13:03:58Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。