論文の概要: Trustworthy AI
- arxiv url: http://arxiv.org/abs/2011.02272v1
- Date: Mon, 2 Nov 2020 20:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 11:38:39.967952
- Title: Trustworthy AI
- Title(参考訳): 信頼できるAI
- Authors: Richa Singh, Mayank Vatsa, Nalini Ratha
- Abstract要約: 入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
- 参考スコア(独自算出の注目度): 75.99046162669997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern AI systems are reaping the advantage of novel learning methods. With
their increasing usage, we are realizing the limitations and shortfalls of
these systems. Brittleness to minor adversarial changes in the input data,
ability to explain the decisions, address the bias in their training data, high
opacity in terms of revealing the lineage of the system, how they were trained
and tested, and under which parameters and conditions they can reliably
guarantee a certain level of performance, are some of the most prominent
limitations. Ensuring the privacy and security of the data, assigning
appropriate credits to data sources, and delivering decent outputs are also
required features of an AI system. We propose the tutorial on Trustworthy AI to
address six critical issues in enhancing user and public trust in AI systems,
namely: (i) bias and fairness, (ii) explainability, (iii) robust mitigation of
adversarial attacks, (iv) improved privacy and security in model building, (v)
being decent, and (vi) model attribution, including the right level of credit
assignment to the data sources, model architectures, and transparency in
lineage.
- Abstract(参考訳): 現代のAIシステムは、新しい学習方法の利点を享受している。
利用が増えるにつれて、これらのシステムの限界と欠点を認識しています。
入力データの小さな敵意の変化に対する不安定性、決定を説明する能力、トレーニングデータのバイアスに対処する能力、システムの系統を明らかにすることによる不透明性、トレーニングとテストの方法、パラメータと条件によって特定のレベルのパフォーマンスを確実に保証できることなどが、最も顕著な制限である。
データのプライバシとセキュリティの確保、データソースへの適切なクレジットの割り当て、適切なアウトプットの提供も、AIシステムの必須機能である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上で,6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
(i)偏見と公平性
(ii)説明可能性
(iii)敵対的攻撃のロバストな緩和
(iv)モデル構築におけるプライバシーとセキュリティの改善。
(v)まともで、かつ
(vi)データソースへの適切なクレジット割り当てレベル、モデルアーキテクチャ、系統の透明性を含むモデル属性。
関連論文リスト
- A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Never trust, always verify : a roadmap for Trustworthy AI? [12.031113181911627]
我々はAIベースのシステムのコンテキストにおける信頼を検証し、AIシステムが信頼に値するものとなることの意味を理解する。
我々は、AIに対する信頼(resp. zero-trust)モデルを提案し、AIシステムの信頼性を保証するために満足すべき特性のセットを提案する。
論文 参考訳(メタデータ) (2022-06-23T21:13:10Z) - Towards a Responsible AI Development Lifecycle: Lessons From Information
Security [0.0]
本稿では,人工知能システムを開発するためのフレームワークを提案する。
特に,脅威モデリング,設計レビュー,浸透試験,インシデント応答の概念を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-06T13:03:58Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Statistical Perspectives on Reliability of Artificial Intelligence
Systems [6.284088451820049]
AIシステムの信頼性に関する統計的視点を提供する。
本稿では,AI信頼性研究のためのSMART統計フレームワークを提案する。
我々は、AI信頼性のモデリングと分析における最近の発展について論じる。
論文 参考訳(メタデータ) (2021-11-09T20:00:14Z) - Blockchain-based Trustworthy Federated Learning Architecture [16.062545221270337]
ブロックチェーンベースの信頼できるフェデレーション学習アーキテクチャを提案する。
まず、説明責任を実現するために、スマートコントラクトベースのデータモデル証明レジストリを設計する。
また、トレーニングデータの公平性を高めるために、重み付き公正データサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T06:13:58Z) - Information Theoretic Evaluation of Privacy-Leakage, Interpretability,
and Transferability for a Novel Trustworthy AI Framework [11.764605963190817]
信頼に値するAIのガイドラインと原則は、実際にAIシステムの開発中に守るべきである。
この研究は、情報理論が倫理的AIの原則を考慮に入れられるという仮説に基づいて、新しい情報理論の信頼できるAIフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-06T09:47:06Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。