論文の概要: A Methodology for Creating AI FactSheets
- arxiv url: http://arxiv.org/abs/2006.13796v2
- Date: Sun, 28 Jun 2020 01:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 13:18:12.286961
- Title: A Methodology for Creating AI FactSheets
- Title(参考訳): aiファクトシート作成のための方法論
- Authors: John Richards, David Piorkowski, Michael Hind, Stephanie Houde,
Aleksandra Mojsilovi\'c
- Abstract要約: 本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
- 参考スコア(独自算出の注目度): 67.65802440158753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI models and services are used in a growing number of highstakes areas, a
consensus is forming around the need for a clearer record of how these models
and services are developed to increase trust. Several proposals for higher
quality and more consistent AI documentation have emerged to address ethical
and legal concerns and general social impacts of such systems. However, there
is little published work on how to create this documentation. This is the first
work to describe a methodology for creating the form of AI documentation we
call FactSheets. We have used this methodology to create useful FactSheets for
nearly two dozen models. This paper describes this methodology and shares the
insights we have gathered. Within each step of the methodology, we describe the
issues to consider and the questions to explore with the relevant people in an
organization who will be creating and consuming the AI facts in a FactSheet.
This methodology will accelerate the broader adoption of transparent AI
documentation.
- Abstract(参考訳): AIモデルとサービスが多くのハイテイク領域で使用されているため、信頼を高めるためにこれらのモデルとサービスがどのように開発されたかを明確に記録する必要性に、コンセンサスが形成されている。
より高品質で一貫性のあるAIドキュメントに関するいくつかの提案が登場し、倫理的および法的懸念とそのようなシステムの一般的な社会的影響に対処している。
しかし、このドキュメントの作成方法についての公開作業はほとんどない。
これは、私たちがFactSheetsと呼ぶAIドキュメントの形式を作るための方法論を記述する最初の作業です。
我々はこの手法を使って、約2ダースのモデルで有用なFactSheetsを作成しました。
本稿では、この方法論を説明し、収集した洞察を共有します。
方法論の各ステップの中で、FactSheetでAI事実を作成し、消費する組織内の関連する人々と探索する上での課題と課題について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
関連論文リスト
- Documenting Ethical Considerations in Open Source AI Models [8.517777178514242]
本研究では,開発者がオープンソースAIモデルの倫理的側面を実際にどのように文書化しているかを検討する。
2,347の文書の最初の集合をフィルタリングした後、265の関連文書を特定した。
モデル行動リスク、モデルユースケース、モデルリスク軽減の6つのテーマが浮かび上がっています。
論文 参考訳(メタデータ) (2024-06-26T05:02:44Z) - Participatory Approaches in AI Development and Governance: Case Studies [9.824305892501686]
本稿では、AI開発と展開への参加的アプローチの価値に関する2部シリーズの第2部を構成する。
最初の論文は、この2つの演習で参加的手法を展開するための、原則と実践的な正当化を考案した。
本稿では、これらの予備的な結論を、法と秩序の覚醒における顔認識技術の使用と、医療分野における大規模言語モデルの使用の2つの分野で検証する。
論文 参考訳(メタデータ) (2024-06-03T10:10:23Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Use case cards: a use case reporting framework inspired by the European
AI Act [0.0]
ユースケースの文書化のための新しいフレームワークを提案する。
他のドキュメンテーションの方法論とは異なり、私たちはAIシステムの目的と運用に重点を置いています。
提案された枠組みは、関連するEU政策の専門家と科学者のチームを含む共同設計プロセスの結果である。
論文 参考訳(メタデータ) (2023-06-23T15:47:19Z) - Dynamic Documentation for AI Systems [0.0]
本稿では,AIシステムにおける現在のドキュメンテーションプロトコルの限界を示す。
我々は、AIシステムを理解し評価するための新しいパラダイムとして、動的ドキュメンテーションを議論する。
論文 参考訳(メタデータ) (2023-03-20T04:23:07Z) - Evaluating a Methodology for Increasing AI Transparency: A Case Study [8.265282762929509]
人工知能の潜在的な害に対する懸念が高まる中、社会はAIモデルとシステムがどのように作成され、使用されるかについて、より透明性を求めるようになった。
これらの懸念に対処するため、いくつかの取り組みが、モデル開発者が答えるべき質問を含むドキュメンテーションテンプレートを提案している。
多様なドキュメントコンシューマのニーズをカバーできるテンプレートはひとつもありません。
論文 参考訳(メタデータ) (2022-01-24T20:01:01Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explaining Relationships Between Scientific Documents [55.23390424044378]
本稿では,2つの学術文書間の関係を自然言語テキストを用いて記述する課題に対処する。
本稿では154K文書から622Kサンプルのデータセットを作成する。
論文 参考訳(メタデータ) (2020-02-02T03:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。