論文の概要: Data-Centric Governance
- arxiv url: http://arxiv.org/abs/2302.07872v1
- Date: Tue, 14 Feb 2023 07:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 16:04:25.666375
- Title: Data-Centric Governance
- Title(参考訳): データ中心ガバナンス
- Authors: Sean McGregor and Jesse Hostetler
- Abstract要約: 現在のAIガバナンスアプローチは、主に手作業によるレビューとドキュメントプロセスで構成されている。
データに作用し、データを生成し、データエンジニアリングを通じて構築される。
本研究では、データセットとアルゴリズムによる評価を通じて、ガバナンス要件の体系化について検討する。
- 参考スコア(独自算出の注目度): 6.85316573653194
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Artificial intelligence (AI) governance is the body of standards and
practices used to ensure that AI systems are deployed responsibly. Current AI
governance approaches consist mainly of manual review and documentation
processes. While such reviews are necessary for many systems, they are not
sufficient to systematically address all potential harms, as they do not
operationalize governance requirements for system engineering, behavior, and
outcomes in a way that facilitates rigorous and reproducible evaluation. Modern
AI systems are data-centric: they act on data, produce data, and are built
through data engineering. The assurance of governance requirements must also be
carried out in terms of data. This work explores the systematization of
governance requirements via datasets and algorithmic evaluations. When applied
throughout the product lifecycle, data-centric governance decreases time to
deployment, increases solution quality, decreases deployment risks, and places
the system in a continuous state of assured compliance with governance
requirements.
- Abstract(参考訳): 人工知能(AI)ガバナンスは、AIシステムが責任を持ってデプロイされることを保証するために使用される標準とプラクティスの体系である。
現在のaiガバナンスのアプローチは、主に手動レビューとドキュメントプロセスで構成されている。
このようなレビューは、多くのシステムに必要だが、厳密で再現可能な評価を促進する方法で、システムエンジニアリング、行動、成果に対するガバナンス要件を運用しないため、潜在的なすべての害に体系的に対処するには十分ではない。
現代のaiシステムはデータ中心であり、データに作用し、データを生成し、データエンジニアリングによって構築される。
ガバナンス要件の保証もデータの観点から行う必要があります。
本研究は,データセットとアルゴリズムによる評価を通じて,ガバナンス要件の体系化を探求する。
製品ライフサイクル全体に適用されると、データ中心のガバナンスはデプロイメントまでの時間を短縮し、ソリューションの品質を向上し、デプロイメントのリスクを低減し、システムがガバナンス要件に準拠することを保証する継続的状態になる。
関連論文リスト
- Design of a Quality Management System based on the EU Artificial Intelligence Act [0.0]
EU AI Actは、リスクの高いAIシステムのプロバイダとデプロイ者が品質管理システム(QMS)を確立することを義務付けている。
本稿では,マイクロサービス・ソフトウェア・アズ・ア・サービス・ウェブ・アプリケーションとしてのQMSの設計コンセプトとプロトタイプを紹介する。
論文 参考訳(メタデータ) (2024-08-08T12:14:02Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Exploring the Relevance of Data Privacy-Enhancing Technologies for AI
Governance Use Cases [1.5293427903448022]
異なるAIガバナンスの目的を情報フローのシステムとして見ることは有用である。
これらの異なるAIガバナンスソリューション間の相互運用性の重要性は明確になる。
論文 参考訳(メタデータ) (2023-03-15T21:56:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - DC-Check: A Data-Centric AI checklist to guide the development of
reliable machine learning systems [81.21462458089142]
データ中心のAIは、信頼できるエンドツーエンドパイプラインを可能にする統一パラダイムとして登場しています。
データ中心の考慮事項を抽出する実行可能なチェックリストスタイルのフレームワークであるDC-Checkを提案する。
この開発におけるデータ中心のレンズは、システム開発に先立って思考力と透明性を促進することを目的としている。
論文 参考訳(メタデータ) (2022-11-09T17:32:09Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Towards Fairness Certification in Artificial Intelligence [31.920661197618195]
我々は,AIフェアネス認証に必要な運用手順を定義するための最初の共同作業を提案する。
我々は、オフィシャルサービスに入る前にAIシステムが満たすべき基準と、公正な判断のためにその機能を監視するのに役立つ適合性評価手順を概観する。
論文 参考訳(メタデータ) (2021-06-04T14:12:12Z) - Outlining Traceability: A Principle for Operationalizing Accountability
in Computing Systems [1.0152838128195467]
トレーサビリティには、システムの動作方法だけでなく、その生成方法や目的の確立が必要です。
トレーサビリティは、システムがどのように構築され、システムが機械的に何をしたかの記録を、より広範なガバナンスの目標に結びつけます。
このマップは、説明責任と透明性に関する既存の議論を再構築し、トレーサビリティの原則を使用して、説明責任の目標を達成するために透明性をデプロイする方法、時期、理由を示す。
論文 参考訳(メタデータ) (2021-01-23T00:13:20Z) - Towards Compliant Data Management Systems for Healthcare ML [6.057289837472806]
我々は、ソースからストレージまで、ヘルスケアにおける機械学習プロジェクト内のデータフローがどのようにトレーニングアルゴリズムなどに使われるのかをレビューする。
私たちの目標は、プロジェクトのライフサイクル全体にわたって、マシンやユーザ間で機密データを検知し、追跡するツールを設計することにあります。
この領域の難しさを示すソリューションのプロトタイプを構築します。
論文 参考訳(メタデータ) (2020-11-15T15:27:51Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。