論文の概要: Coordinated Disclosure for AI: Beyond Security Vulnerabilities
- arxiv url: http://arxiv.org/abs/2402.07039v1
- Date: Sat, 10 Feb 2024 20:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 18:11:41.406245
- Title: Coordinated Disclosure for AI: Beyond Security Vulnerabilities
- Title(参考訳): AIのコーディネート公開 - セキュリティ脆弱性を超えて
- Authors: Sven Cattell, Avijit Ghosh
- Abstract要約: 人工知能(AI)分野におけるHarmレポートは現在、アドホックベースで運用されている。
対照的に、Coordinated Disclosureの倫理とエコシステムは、ソフトウェアセキュリティと透明性において重要な役割を担います。
- 参考スコア(独自算出の注目度): 0.7252027234425334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Harm reporting in the field of Artificial Intelligence (AI) currently
operates on an ad hoc basis, lacking a structured process for disclosing or
addressing algorithmic flaws. In contrast, the Coordinated Vulnerability
Disclosure (CVD) ethos and ecosystem play a pivotal role in software security
and transparency. Within the U.S. context, there has been a protracted legal
and policy struggle to establish a safe harbor from the Computer Fraud and
Abuse Act, aiming to foster institutional support for security researchers
acting in good faith. Notably, algorithmic flaws in Machine Learning (ML)
models present distinct challenges compared to traditional software
vulnerabilities, warranting a specialized approach. To address this gap, we
propose the implementation of a dedicated Coordinated Flaw Disclosure (CFD)
framework tailored to the intricacies of machine learning and artificial
intelligence issues. This paper delves into the historical landscape of
disclosures in ML, encompassing the ad hoc reporting of harms and the emergence
of participatory auditing. By juxtaposing these practices with the
well-established disclosure norms in cybersecurity, we argue that the broader
adoption of CFD has the potential to enhance public trust through transparent
processes that carefully balance the interests of both organizations and the
community.
- Abstract(参考訳): Harm Report in the field of Artificial Intelligence (AI) は現在、アルゴリズムの欠陥を開示または対処するための構造化プロセスが欠如している。
対照的に、CVD(Coordinated Vulnerability Disclosure)の倫理とエコシステムは、ソフトウェアセキュリティと透明性において重要な役割を果たす。
アメリカの文脈では、コンピュータ詐欺・虐待法(英語版)から安全な港を確立するための、法と政策の長期的闘争があり、誠実に行動するセキュリティ研究者の制度的支援を促進することを目的としている。
特に、機械学習(ML)モデルにおけるアルゴリズム上の欠陥は、従来のソフトウェア脆弱性とは異なる課題を示し、特殊なアプローチを保証する。
このギャップに対処するため、機械学習と人工知能の問題の複雑さに合わせたCFD(Coordinated Flaw Disclosure)フレームワークの実装を提案する。
本稿では,MLにおける情報開示の歴史的背景を考察し,害の報告や参加型監査の出現を包括する。
これらのプラクティスをサイバーセキュリティにおける確立された開示基準と結びつけることで、cfdの広範な採用は、組織とコミュニティの両方の利益を慎重にバランスさせる透明なプロセスを通じて、公共の信頼を高める可能性を秘めている。
関連論文リスト
- Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。