論文の概要: Coordinated Disclosure for AI: Beyond Security Vulnerabilities
- arxiv url: http://arxiv.org/abs/2402.07039v1
- Date: Sat, 10 Feb 2024 20:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 18:11:41.406245
- Title: Coordinated Disclosure for AI: Beyond Security Vulnerabilities
- Title(参考訳): AIのコーディネート公開 - セキュリティ脆弱性を超えて
- Authors: Sven Cattell, Avijit Ghosh
- Abstract要約: 人工知能(AI)分野におけるHarmレポートは現在、アドホックベースで運用されている。
対照的に、Coordinated Disclosureの倫理とエコシステムは、ソフトウェアセキュリティと透明性において重要な役割を担います。
- 参考スコア(独自算出の注目度): 0.7252027234425334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Harm reporting in the field of Artificial Intelligence (AI) currently
operates on an ad hoc basis, lacking a structured process for disclosing or
addressing algorithmic flaws. In contrast, the Coordinated Vulnerability
Disclosure (CVD) ethos and ecosystem play a pivotal role in software security
and transparency. Within the U.S. context, there has been a protracted legal
and policy struggle to establish a safe harbor from the Computer Fraud and
Abuse Act, aiming to foster institutional support for security researchers
acting in good faith. Notably, algorithmic flaws in Machine Learning (ML)
models present distinct challenges compared to traditional software
vulnerabilities, warranting a specialized approach. To address this gap, we
propose the implementation of a dedicated Coordinated Flaw Disclosure (CFD)
framework tailored to the intricacies of machine learning and artificial
intelligence issues. This paper delves into the historical landscape of
disclosures in ML, encompassing the ad hoc reporting of harms and the emergence
of participatory auditing. By juxtaposing these practices with the
well-established disclosure norms in cybersecurity, we argue that the broader
adoption of CFD has the potential to enhance public trust through transparent
processes that carefully balance the interests of both organizations and the
community.
- Abstract(参考訳): Harm Report in the field of Artificial Intelligence (AI) は現在、アルゴリズムの欠陥を開示または対処するための構造化プロセスが欠如している。
対照的に、CVD(Coordinated Vulnerability Disclosure)の倫理とエコシステムは、ソフトウェアセキュリティと透明性において重要な役割を果たす。
アメリカの文脈では、コンピュータ詐欺・虐待法(英語版)から安全な港を確立するための、法と政策の長期的闘争があり、誠実に行動するセキュリティ研究者の制度的支援を促進することを目的としている。
特に、機械学習(ML)モデルにおけるアルゴリズム上の欠陥は、従来のソフトウェア脆弱性とは異なる課題を示し、特殊なアプローチを保証する。
このギャップに対処するため、機械学習と人工知能の問題の複雑さに合わせたCFD(Coordinated Flaw Disclosure)フレームワークの実装を提案する。
本稿では,MLにおける情報開示の歴史的背景を考察し,害の報告や参加型監査の出現を包括する。
これらのプラクティスをサイバーセキュリティにおける確立された開示基準と結びつけることで、cfdの広範な採用は、組織とコミュニティの両方の利益を慎重にバランスさせる透明なプロセスを通じて、公共の信頼を高める可能性を秘めている。
関連論文リスト
- The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Trust in Software Supply Chains: Blockchain-Enabled SBOM and the AIBOM
Future [28.67753149592534]
本研究では、SBOM共有のためのブロックチェーンを活用したアーキテクチャを導入し、検証可能な認証情報を活用して、選択的な開示を可能にする。
本稿では、AIシステムを含むSBOMの限界を広げ、AI Bill of Materials(AIBOM)という用語を創出する。
論文 参考訳(メタデータ) (2023-07-05T07:56:48Z) - ExTRUST: Reducing Exploit Stockpiles with a Privacy-Preserving Depletion
System for Inter-State Relationships [4.349142920611964]
本稿では、複数の州で脆弱性とエクスプロイトのストックをプライベートに比較できるプライバシー保護手法を提案する。
システムをExtrustと呼び、拡張性があり、いくつかの攻撃シナリオに耐えられることを示す。
論文 参考訳(メタデータ) (2023-06-01T12:02:17Z) - Adversarial Machine Learning and Cybersecurity: Risks, Challenges, and
Legal Implications [0.4665186371356556]
2022年7月、ジョージタウン大学のCenter for Security and Emerging TechnologyとStanford Cyber Policy CenterのGeopolitics, Technology, and Governanceプログラムが、人工知能システムの脆弱性と従来型のソフトウェア脆弱性との関係を調べる専門家のワークショップを開催した。
議論されたトピックは、AI脆弱性が標準的なサイバーセキュリティプロセスの下でどのように扱われるか、現在の障壁がAI脆弱性に関する情報の正確な共有を妨げていること、AIシステムに対する敵対的攻撃に関連する法的問題、政府支援がAI脆弱性の管理と緩和を改善する可能性のある潜在的な領域である。
論文 参考訳(メタデータ) (2023-05-23T22:27:53Z) - Exploring the Relevance of Data Privacy-Enhancing Technologies for AI
Governance Use Cases [1.5293427903448022]
異なるAIガバナンスの目的を情報フローのシステムとして見ることは有用である。
これらの異なるAIガバナンスソリューション間の相互運用性の重要性は明確になる。
論文 参考訳(メタデータ) (2023-03-15T21:56:59Z) - The Opportunity to Regulate Cybersecurity in the EU (and the World):
Recommendations for the Cybersecurity Resilience Act [1.2691047660244335]
ほとんどの状況で安全はサイバーセキュリティになりつつある。
これは、欧州連合で提案され、合意された時に、サイバーセキュリティ回復法に反映されるべきである。
これは、長い間サイバーセキュリティ研究コミュニティが求めてきたこと、そしてソフトではなく明確な厳格な法的ルールを構成するものに基づいている。
論文 参考訳(メタデータ) (2022-05-26T07:20:44Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - A System for Automated Open-Source Threat Intelligence Gathering and
Management [53.65687495231605]
SecurityKGはOSCTIの収集と管理を自動化するシステムである。
AIとNLP技術を組み合わせて、脅威行動に関する高忠実な知識を抽出する。
論文 参考訳(メタデータ) (2021-01-19T18:31:35Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。