論文の概要: Technologies for Trustworthy Machine Learning: A Survey in a
Socio-Technical Context
- arxiv url: http://arxiv.org/abs/2007.08911v3
- Date: Thu, 20 Jan 2022 13:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 12:53:53.321390
- Title: Technologies for Trustworthy Machine Learning: A Survey in a
Socio-Technical Context
- Title(参考訳): 信頼できる機械学習のための技術: 社会技術的文脈における調査
- Authors: Ehsan Toreini, Mhairi Aitken, Kovila P. L. Coopamootoo, Karen Elliott,
Vladimiro Gonzalez Zelaya, Paolo Missier, Magdalene Ng, Aad van Moorsel
- Abstract要約: システム特性の4つのカテゴリは、公正性、説明可能性、監査可能性、安全性とセキュリティ(FEAS)という政策目標を達成するのに役立ちます。
我々は、データ収集から実行時モデル推論まで、これらの特性がどのように機械学習ライフサイクルの全段階にわたって考慮されるべきかについて議論する。
我々は、信頼性の高い機械学習技術と個人や社会へのその影響との関係に特に焦点をあてて、オープンな研究課題の特定を結論付けた。
- 参考スコア(独自算出の注目度): 4.866589122417036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concerns about the societal impact of AI-based services and systems has
encouraged governments and other organisations around the world to propose AI
policy frameworks to address fairness, accountability, transparency and related
topics. To achieve the objectives of these frameworks, the data and software
engineers who build machine-learning systems require knowledge about a variety
of relevant supporting tools and techniques. In this paper we provide an
overview of technologies that support building trustworthy machine learning
systems, i.e., systems whose properties justify that people place trust in
them. We argue that four categories of system properties are instrumental in
achieving the policy objectives, namely fairness, explainability, auditability
and safety & security (FEAS). We discuss how these properties need to be
considered across all stages of the machine learning life cycle, from data
collection through run-time model inference. As a consequence, we survey in
this paper the main technologies with respect to all four of the FEAS
properties, for data-centric as well as model-centric stages of the machine
learning system life cycle. We conclude with an identification of open research
problems, with a particular focus on the connection between trustworthy machine
learning technologies and their implications for individuals and society.
- Abstract(参考訳): AIベースのサービスとシステムの社会的影響に関する懸念は、公正性、説明責任、透明性、関連するトピックに対処するAIポリシーフレームワークの提案を、政府や世界中の組織に促している。
これらのフレームワークの目的を達成するために、マシンラーニングシステムを構築するデータとソフトウェアエンジニアは、さまざまな関連するサポートツールやテクニックに関する知識を必要とします。
本稿では,信頼度の高い機械学習システム,すなわち,人々が信頼を置けるという特性を正当化するシステムの構築を支援する技術の概要を示す。
システム特性の4つのカテゴリは、公正性、説明可能性、監査可能性、安全性とセキュリティ(FEAS)という政策目標を達成するのに役立ちます。
我々は、データ収集から実行時モデル推論まで、これらの特性がどのように機械学習ライフサイクルの全段階にわたって考慮されるべきかについて議論する。
その結果、本研究では、データ中心および機械学習システムのライフサイクルのモデル中心の段階において、FEASの4つの特性について、主要な技術について調査する。
我々は、信頼性の高い機械学習技術と個人や社会への影響との関係に特に焦点をあてて、オープンな研究課題の特定を結論付けた。
関連論文リスト
- Trustworthy Representation Learning Across Domains [22.54626834599221]
本稿では,ドメイン間の表現学習のための信頼性の高いフレームワークの詳細を紹介する。
我々は4つの概念から信頼性の高いフレームワークの基本的な概念を提供し、既存の手法を包括的に要約する。
論文 参考訳(メタデータ) (2023-08-23T08:38:54Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Identifying Roles, Requirements and Responsibilities in Trustworthy AI
Systems [2.28438857884398]
我々は、ドメインの実践者の視点からAIシステムを検討し、システムデプロイメントに関与する重要な役割を特定します。
各役割の異なる要件と責任を考慮し、対処すべき透明性とプライバシの緊張関係を特定します。
論文 参考訳(メタデータ) (2021-06-15T16:05:10Z) - From Distributed Machine Learning to Federated Learning: A Survey [49.7569746460225]
分散学習は、分散データとコンピューティングリソースを利用するための効率的なアプローチとして現れる。
本論文では,連合学習システムの機能構造と関連手法の分類法を提案する。
本稿では,flシステムの分散トレーニング,データ通信,セキュリティについて述べる。
論文 参考訳(メタデータ) (2021-04-29T14:15:11Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Enterprise AI Canvas -- Integrating Artificial Intelligence into
Business [0.0]
Enterprise AIキャンバスは、データサイエンティストとビジネスエキスパートをまとめて、関連するすべての側面を議論し、定義するように設計されている。
第1部はビジネスビューと組織的な側面にフォーカスするが、第2部は基盤となる機械学習モデルとそれが使用するデータにフォーカスする。
論文 参考訳(メタデータ) (2020-09-18T07:30:56Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Towards CRISP-ML(Q): A Machine Learning Process Model with Quality
Assurance Methodology [53.063411515511056]
本稿では,機械学習アプリケーション開発のためのプロセスモデルを提案する。
第1フェーズでは、データの可用性がプロジェクトの実現可能性に影響を与えることが多いため、ビジネスとデータの理解が結合されます。
第6フェーズでは、機械学習アプリケーションの監視とメンテナンスに関する最先端のアプローチがカバーされている。
論文 参考訳(メタデータ) (2020-03-11T08:25:49Z) - Knowledge Federation: A Unified and Hierarchical Privacy-Preserving AI
Framework [25.950286526030645]
我々は、データプライバシとオーナシップを維持しながらAIを有効にすることで課題に対処する包括的なフレームワーク(知識フェデレーション - KF)を提案する。
KFは,(1)情報レベル,低レベル統計量,データの計算,単純なクエリの要求を満たすこと,(2)訓練,学習,推論をサポートするモデルレベル,(3)抽象的・文脈の抽象的特徴表現を可能にする認知レベル,(4)知識レベル,知識発見,表現,推論の融合,の4つのレベルから構成される。
我々は、生産品質を提供するために、iBond Platformと呼ばれるKFのリファレンス実装を開発した。
論文 参考訳(メタデータ) (2020-02-05T05:23:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。