論文の概要: A framework for fostering transparency in shared artificial intelligence
models by increasing visibility of contributions
- arxiv url: http://arxiv.org/abs/2103.03610v1
- Date: Fri, 5 Mar 2021 11:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 20:41:14.364479
- Title: A framework for fostering transparency in shared artificial intelligence
models by increasing visibility of contributions
- Title(参考訳): 貢献の可視性向上による共有人工知能モデルの透明性向上のためのフレームワーク
- Authors: Iain Barclay, Harrison Taylor, Alun Preece, Ian Taylor, Dinesh Verma,
Geeth de Mel
- Abstract要約: 本稿では,AIシステム生成に使用されるプロセスパイプラインの全体的透明性をランキングできる定量化指標を導出する新しい手法を提案する。
メトリクスを計算するための方法論と、システムへの貢献の可視性に関する判断に使用できる基準の種類を評価する。
- 参考スコア(独自算出の注目度): 0.6850683267295249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Increased adoption of artificial intelligence (AI) systems into scientific
workflows will result in an increasing technical debt as the distance between
the data scientists and engineers who develop AI system components and
scientists, researchers and other users grows. This could quickly become
problematic, particularly where guidance or regulations change and
once-acceptable best practice becomes outdated, or where data sources are later
discredited as biased or inaccurate. This paper presents a novel method for
deriving a quantifiable metric capable of ranking the overall transparency of
the process pipelines used to generate AI systems, such that users, auditors
and other stakeholders can gain confidence that they will be able to validate
and trust the data sources and contributors in the AI systems that they rely
on. The methodology for calculating the metric, and the type of criteria that
could be used to make judgements on the visibility of contributions to systems
are evaluated through models published at ModelHub and PyTorch Hub, popular
archives for sharing science resources, and is found to be helpful in driving
consideration of the contributions made to generating AI systems and approaches
towards effective documentation and improving transparency in machine learning
assets shared within scientific communities.
- Abstract(参考訳): 人工知能(AI)システムを科学的なワークフローに導入すると、AIシステムコンポーネントを開発するデータサイエンティストと科学者、研究者、その他のユーザーの間の距離が大きくなるにつれて、技術的負債が増加します。
特にガイダンスや規制が変化し、一度受け入れ可能なベストプラクティスが時代遅れになる場合や、データソースが後にバイアスや不正確なものとして信用される場合などである。
本稿では,ユーザ,監査人,その他の利害関係者が,信頼するAIシステムのデータソースやコントリビュータを検証し,信頼できることを確信できるような,AIシステム生成に使用されるプロセスパイプラインの全体的な透明性をランク付けできる定量化可能なメトリクスの導出方法を提案する。
The methodology for calculating the metric, and the type of criteria that could be used to make judgements on the visibility of contributions to systems are evaluated through models published at ModelHub and PyTorch Hub, popular archives for sharing science resources, and is found to be helpful in driving consideration of the contributions made to generating AI systems and approaches towards effective documentation and improving transparency in machine learning assets shared within scientific communities.
関連論文リスト
- Private Knowledge Sharing in Distributed Learning: A Survey [50.51431815732716]
人工知能の台頭は多くの産業に革命をもたらし、社会の働き方を変えた。
異なるエンティティが分散または所有する学習プロセスにおいて、情報を活用することが不可欠である。
現代のデータ駆動サービスは、分散知識エンティティを結果に統合するために開発されています。
論文 参考訳(メタデータ) (2024-02-08T07:18:23Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - FAIR principles for AI models, with a practical application for
accelerated high energy diffraction microscopy [1.9270896986812693]
我々は、統合された計算フレームワーク内でFAIRデータとAIモデルを作成し、共有する方法を紹介します。
ドメインに依存しないこの計算フレームワークが、自律的なAI駆動の発見を可能にする方法について説明する。
論文 参考訳(メタデータ) (2022-07-01T18:11:12Z) - Providing Assurance and Scrutability on Shared Data and Machine Learning
Models with Verifiable Credentials [0.0]
実践者は、関連する信頼できるデータを使用することにAI開発者を頼っている。
科学者は、データリソースの品質を証明する署名された認証情報を発行できます。
BOMは、AIシステムのサプライチェーンの追跡可能な記録を提供します。
論文 参考訳(メタデータ) (2021-05-13T15:58:05Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。