論文の概要: Towards a Responsible AI Development Lifecycle: Lessons From Information
Security
- arxiv url: http://arxiv.org/abs/2203.02958v1
- Date: Sun, 6 Mar 2022 13:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 06:26:05.293700
- Title: Towards a Responsible AI Development Lifecycle: Lessons From Information
Security
- Title(参考訳): 責任あるAI開発ライフサイクルに向けて - 情報セキュリティからの教訓
- Authors: Erick Galinkin
- Abstract要約: 本稿では,人工知能システムを開発するためのフレームワークを提案する。
特に,脅威モデリング,設計レビュー,浸透試験,インシデント応答の概念を活用することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Legislation and public sentiment throughout the world have promoted fairness
metrics, explainability, and interpretability as prescriptions for the
responsible development of ethical artificial intelligence systems. Despite the
importance of these three pillars in the foundation of the field, they can be
challenging to operationalize and attempts to solve the problems in production
environments often feel Sisyphean. This difficulty stems from a number of
factors: fairness metrics are computationally difficult to incorporate into
training and rarely alleviate all of the harms perpetrated by these systems.
Interpretability and explainability can be gamed to appear fair, may
inadvertently reduce the privacy of personal information contained in training
data, and increase user confidence in predictions -- even when the explanations
are wrong. In this work, we propose a framework for responsibly developing
artificial intelligence systems by incorporating lessons from the field of
information security and the secure development lifecycle to overcome
challenges associated with protecting users in adversarial settings. In
particular, we propose leveraging the concepts of threat modeling, design
review, penetration testing, and incident response in the context of developing
AI systems as ways to resolve shortcomings in the aforementioned methods.
- Abstract(参考訳): 法制化と大衆の感情は、倫理的人工知能システムの責任ある開発のための処方として、公正度メトリクス、説明可能性、解釈可能性を促進してきた。
この分野の基礎にはこれらの3つの柱が重要であるが、運用は困難であり、生産環境における問題の解決はシシフィアンをしばしば感じている。
公平度メトリクスは、トレーニングに組み込むのが計算的に困難であり、これらのシステムが犯すすべての危害を軽減することは滅多にない。
解釈可能性と説明容易性は公正に見え、トレーニングデータに含まれる個人情報のプライバシを必然的に低減し、説明が間違っていても、予測に対するユーザの信頼を高める可能性がある。
本研究では,情報セキュリティとセキュアな開発ライフサイクルから学んだ教訓を取り入れ,対向環境におけるユーザ保護に関わる課題を克服し,人工知能システムの開発に責任を負う枠組みを提案する。
特に,脅威モデリング,設計レビュー,浸透テスト,インシデント応答といった概念を,前述の手法の欠点を解決する手段として,AIシステム開発という文脈で活用することを提案する。
関連論文リスト
- Inherently Interpretable and Uncertainty-Aware Models for Online Learning in Cyber-Security Problems [0.22499166814992438]
サイバーセキュリティにおけるオンライン教師あり学習問題に対する新しいパイプラインを提案する。
当社のアプローチは、予測パフォーマンスと透明性のバランスをとることを目的としています。
この研究は、解釈可能なAIの分野の成長に寄与する。
論文 参考訳(メタデータ) (2024-11-14T12:11:08Z) - Trustworthy Distributed AI Systems: Robustness, Privacy, and Governance [14.941040909919327]
分散AIシステムは、経済的および社会的影響を増大させることで、ビッグデータコンピューティングとデータ処理能力に革命をもたらしている。
近年の研究では、AIシステムのセキュリティ、プライバシ、公平性の問題に起因する新たな攻撃面とリスクが特定されている。
我々は、信頼できる分散AIのための代表的技術、アルゴリズム、理論的基礎についてレビューする。
論文 参考訳(メタデータ) (2024-02-02T01:58:58Z) - Building Safe and Reliable AI systems for Safety Critical Tasks with
Vision-Language Processing [1.2183405753834557]
現在のAIアルゴリズムでは、障害検出の一般的な原因を特定できない。
予測の質を定量化するためには、追加のテクニックが必要である。
この論文は、分類、画像キャプション、視覚質問応答といったタスクのための視覚言語データ処理に焦点を当てる。
論文 参考訳(メタデータ) (2023-08-06T18:05:59Z) - Foveate, Attribute, and Rationalize: Towards Physically Safe and
Trustworthy AI [76.28956947107372]
包括的不安全テキストは、日常的なシナリオから生じる可能性のある特定の関心領域であり、有害なテキストを検出するのが困難である。
安全の文脈において、信頼に値する合理的な生成のために外部知識を活用する新しいフレームワークであるFARMを提案する。
実験の結果,FARMはSafeTextデータセットの最先端結果を得ることができ,安全性の分類精度が5.9%向上したことがわかった。
論文 参考訳(メタデータ) (2022-12-19T17:51:47Z) - Liability regimes in the age of AI: a use-case driven analysis of the
burden of proof [1.7510020208193926]
人工知能(AI)を利用した新しいテクノロジーは、私たちの社会をより良く、破壊的に変革する可能性を秘めている。
しかし、安全と基本的権利の両方に潜在的なリスクをもたらす、これらの方法論の固有の特性に対する懸念が高まっている。
本稿では,これらの難易度を示す3つのケーススタディと,それらに到達するための方法論について述べる。
論文 参考訳(メタデータ) (2022-11-03T13:55:36Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。