論文の概要: Closing the AI Accountability Gap: Defining an End-to-End Framework for
Internal Algorithmic Auditing
- arxiv url: http://arxiv.org/abs/2001.00973v1
- Date: Fri, 3 Jan 2020 20:19:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 00:22:41.123828
- Title: Closing the AI Accountability Gap: Defining an End-to-End Framework for
Internal Algorithmic Auditing
- Title(参考訳): AIアカウンタビリティのギャップを埋める - 内部アルゴリズム監査のためのエンドツーエンドフレームワークの定義
- Authors: Inioluwa Deborah Raji, Andrew Smart, Rebecca N. White, Margaret
Mitchell, Timnit Gebru, Ben Hutchinson, Jamila Smith-Loud, Daniel Theron,
Parker Barnes
- Abstract要約: 本稿では,人工知能システム開発をエンドツーエンドでサポートするアルゴリズム監査フレームワークを提案する。
提案する監査フレームワークは,大規模人工知能システムの開発と展開において,説明責任のギャップを埋めることを目的としている。
- 参考スコア(独自算出の注目度): 8.155332346712424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rising concern for the societal implications of artificial intelligence
systems has inspired a wave of academic and journalistic literature in which
deployed systems are audited for harm by investigators from outside the
organizations deploying the algorithms. However, it remains challenging for
practitioners to identify the harmful repercussions of their own systems prior
to deployment, and, once deployed, emergent issues can become difficult or
impossible to trace back to their source. In this paper, we introduce a
framework for algorithmic auditing that supports artificial intelligence system
development end-to-end, to be applied throughout the internal organization
development lifecycle. Each stage of the audit yields a set of documents that
together form an overall audit report, drawing on an organization's values or
principles to assess the fit of decisions made throughout the process. The
proposed auditing framework is intended to contribute to closing the
accountability gap in the development and deployment of large-scale artificial
intelligence systems by embedding a robust process to ensure audit integrity.
- Abstract(参考訳): 人工知能システムの社会的影響に対する懸念が高まり、アルゴリズムをデプロイする外部の研究者によって、デプロイされたシステムが害に対して監査されるという、学術およびジャーナリストの文学の波に触発された。
しかし、デプロイ前に自身のシステムの有害な影響を識別することは、まだ困難であり、一度デプロイすると、創発的な問題がソースに遡るのは難しい、あるいは不可能になる可能性がある。
本稿では,人工知能システム開発をエンドツーエンドでサポートし,内部組織開発ライフサイクル全体に適用するアルゴリズム監査のフレームワークを提案する。
監査の各段階は、プロセス全体を通じてなされる決定の適合性を評価するための組織の価値観や原則に基づいて、監査報告書全体を形成する一連の文書を導き出します。
提案する監査フレームワークは,監査の完全性を確保するために堅牢なプロセスを組み込むことで,大規模人工知能システムの開発と展開における説明責任ギャップを埋めることを目的としている。
関連論文リスト
- Assessing the Auditability of AI-integrating Systems: A Framework and Learning Analytics Case Study [0.0]
監査の有効性は,監査システムの監査可能性に左右される。
本稿では,AI統合システムの監査性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T13:43:21Z) - Trustworthiness in Retrieval-Augmented Generation Systems: A Survey [59.26328612791924]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の開発において、急速に重要なパラダイムへと成長してきた。
本稿では,RAGシステムの信頼性を,事実性,堅牢性,公正性,透明性,説明責任,プライバシの6つの面で評価する統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-16T09:06:44Z) - A Blueprint for Auditing Generative AI [0.9999629695552196]
生成AIシステムは創発的な能力を示し、幅広い下流タスクに適応できる。
既存の監査手順は、生成的AIシステムによって引き起こされるガバナンスの課題に対処できない。
本稿では、生成AIシステムの設計と普及を行う技術提供者のガバナンス監査、事前学習後の生成AIシステムのモデル監査、生成AIシステムに基づくアプリケーションのアプリケーション監査という3層的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-07T11:56:54Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance [3.8997087223115634]
我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
論文 参考訳(メタデータ) (2022-06-09T19:18:47Z) - System Cards for AI-Based Decision-Making for Public Policy [5.076419064097733]
本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
論文 参考訳(メタデータ) (2022-03-01T18:56:45Z) - Generalizing Cross-Document Event Coreference Resolution Across Multiple
Corpora [63.429307282665704]
クロスドキュメントイベントコア参照解決(CDCR)は、文書の集合全体にわたってイベントの特定とクラスタ化を行う必要があるNLPタスクである。
CDCRは、下流のマルチドキュメントアプリケーションに利益をもたらすことを目標としているが、CDCRの適用による改善はまだ示されていない。
これまでのCDCRシステムは,1つのコーパスでのみ開発,トレーニング,テストが行われた。
論文 参考訳(メタデータ) (2020-11-24T17:45:03Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。