論文の概要: Providing Assurance and Scrutability on Shared Data and Machine Learning
Models with Verifiable Credentials
- arxiv url: http://arxiv.org/abs/2105.06370v1
- Date: Thu, 13 May 2021 15:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:46:11.681256
- Title: Providing Assurance and Scrutability on Shared Data and Machine Learning
Models with Verifiable Credentials
- Title(参考訳): 検証基準付き共有データおよび機械学習モデルにおける保証と精査可能性の提供
- Authors: Iain Barclay, Alun Preece, Ian Taylor, Swapna K. Radha, Jarek
Nabrzyski
- Abstract要約: 実践者は、関連する信頼できるデータを使用することにAI開発者を頼っている。
科学者は、データリソースの品質を証明する署名された認証情報を発行できます。
BOMは、AIシステムのサプライチェーンの追跡可能な記録を提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adopting shared data resources requires scientists to place trust in the
originators of the data. When shared data is later used in the development of
artificial intelligence (AI) systems or machine learning (ML) models, the trust
lineage extends to the users of the system, typically practitioners in fields
such as healthcare and finance. Practitioners rely on AI developers to have
used relevant, trustworthy data, but may have limited insight and recourse.
This paper introduces a software architecture and implementation of a system
based on design patterns from the field of self-sovereign identity. Scientists
can issue signed credentials attesting to qualities of their data resources.
Data contributions to ML models are recorded in a bill of materials (BOM),
which is stored with the model as a verifiable credential. The BOM provides a
traceable record of the supply chain for an AI system, which facilitates
on-going scrutiny of the qualities of the contributing components. The verified
BOM, and its linkage to certified data qualities, is used in the AI Scrutineer,
a web-based tool designed to offer practitioners insight into ML model
constituents and highlight any problems with adopted datasets, should they be
found to have biased data or be otherwise discredited.
- Abstract(参考訳): 共有データリソースを採用するには、データの起源者に信頼を置く必要がある。
共有データが後に人工知能(AI)システムや機械学習(ML)モデルの開発に使用されるとき、信頼関係はシステムのユーザ(典型的には医療や金融などの分野の実践者)に拡張される。
実践者は、関連する信頼できるデータを使用することにAI開発者を頼っているが、洞察と会話が限られている可能性がある。
本稿では,自己主権的アイデンティティの分野からデザインパターンに基づくシステムのソフトウェアアーキテクチャと実装を紹介する。
科学者は、データリソースの品質を検証する署名された証明書を発行することができる。
MLモデルへのデータコントリビューションはBOM(Bill of Materials)に記録され、そのモデルに検証可能なクレデンシャルとして格納される。
BOMは、AIシステムのサプライチェーンのトレース可能な記録を提供する。
認証されたbomとその認定データ品質とのリンクは、ai scrutineer(ai scrutineer)で使用されている。これは、mlモデルの構成要素に関する専門家の洞察を提供し、もしバイアスのあるデータを持っていたり、その他のクレジットが下がったりした場合に、採択されたデータセットに関するあらゆる問題をハイライトするために設計されたwebベースのツールである。
関連論文リスト
- AI Data Readiness Inspector (AIDRIN) for Quantitative Assessment of Data Readiness for AI [0.8553254686016967]
ガベージ・イン・ガベージ・アウト(Garbage in Garbage Out)は、人工知能(AI)など、様々な分野のコンピュータ科学者によって広く合意された引用である。
AIのデータ"可読性"を評価するための標準的な方法やフレームワークはありません。
AIDRINは、文献で利用可能な幅広い準備性次元をカバーするフレームワークである。
論文 参考訳(メタデータ) (2024-06-27T15:26:39Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Collect, Measure, Repeat: Reliability Factors for Responsible AI Data
Collection [8.12993269922936]
AIのデータ収集は責任ある方法で行うべきだと我々は主張する。
本稿では,データ収集をメトリクスの集合でガイドするResponsible AI(RAI)手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T18:01:27Z) - Model-Driven Engineering Method to Support the Formalization of Machine
Learning using SysML [0.0]
本研究は,モデルベース工学を活用した機械学習タスクの協調的定義を支援する手法を提案する。
この方法は、様々なデータソースの識別と統合、データ属性間のセマンティックな関係の定義、データ処理ステップの定義をサポートする。
論文 参考訳(メタデータ) (2023-07-10T11:33:46Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - A framework for fostering transparency in shared artificial intelligence
models by increasing visibility of contributions [0.6850683267295249]
本稿では,AIシステム生成に使用されるプロセスパイプラインの全体的透明性をランキングできる定量化指標を導出する新しい手法を提案する。
メトリクスを計算するための方法論と、システムへの貢献の可視性に関する判断に使用できる基準の種類を評価する。
論文 参考訳(メタデータ) (2021-03-05T11:28:50Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - A Distributed Trust Framework for Privacy-Preserving Machine Learning [4.282091426377838]
本稿では,分散エージェント間のピアツーピア信頼を促進するために使用される分散インフラストラクチャについて概説する。
Hyperledger Aries、分散識別子(DID)、検証クレデンシャル(VC)を使用した概念実証について詳述する。
論文 参考訳(メタデータ) (2020-06-03T18:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。