論文の概要: Closing the AI Accountability Gap: Defining an End-to-End Framework for
Internal Algorithmic Auditing
- arxiv url: http://arxiv.org/abs/2001.00973v1
- Date: Fri, 3 Jan 2020 20:19:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 00:22:41.123828
- Title: Closing the AI Accountability Gap: Defining an End-to-End Framework for
Internal Algorithmic Auditing
- Title(参考訳): AIアカウンタビリティのギャップを埋める - 内部アルゴリズム監査のためのエンドツーエンドフレームワークの定義
- Authors: Inioluwa Deborah Raji, Andrew Smart, Rebecca N. White, Margaret
Mitchell, Timnit Gebru, Ben Hutchinson, Jamila Smith-Loud, Daniel Theron,
Parker Barnes
- Abstract要約: 本稿では,人工知能システム開発をエンドツーエンドでサポートするアルゴリズム監査フレームワークを提案する。
提案する監査フレームワークは,大規模人工知能システムの開発と展開において,説明責任のギャップを埋めることを目的としている。
- 参考スコア(独自算出の注目度): 8.155332346712424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rising concern for the societal implications of artificial intelligence
systems has inspired a wave of academic and journalistic literature in which
deployed systems are audited for harm by investigators from outside the
organizations deploying the algorithms. However, it remains challenging for
practitioners to identify the harmful repercussions of their own systems prior
to deployment, and, once deployed, emergent issues can become difficult or
impossible to trace back to their source. In this paper, we introduce a
framework for algorithmic auditing that supports artificial intelligence system
development end-to-end, to be applied throughout the internal organization
development lifecycle. Each stage of the audit yields a set of documents that
together form an overall audit report, drawing on an organization's values or
principles to assess the fit of decisions made throughout the process. The
proposed auditing framework is intended to contribute to closing the
accountability gap in the development and deployment of large-scale artificial
intelligence systems by embedding a robust process to ensure audit integrity.
- Abstract(参考訳): 人工知能システムの社会的影響に対する懸念が高まり、アルゴリズムをデプロイする外部の研究者によって、デプロイされたシステムが害に対して監査されるという、学術およびジャーナリストの文学の波に触発された。
しかし、デプロイ前に自身のシステムの有害な影響を識別することは、まだ困難であり、一度デプロイすると、創発的な問題がソースに遡るのは難しい、あるいは不可能になる可能性がある。
本稿では,人工知能システム開発をエンドツーエンドでサポートし,内部組織開発ライフサイクル全体に適用するアルゴリズム監査のフレームワークを提案する。
監査の各段階は、プロセス全体を通じてなされる決定の適合性を評価するための組織の価値観や原則に基づいて、監査報告書全体を形成する一連の文書を導き出します。
提案する監査フレームワークは,監査の完全性を確保するために堅牢なプロセスを組み込むことで,大規模人工知能システムの開発と展開における説明責任ギャップを埋めることを目的としている。
関連論文リスト
- Coordinated Disclosure for AI: Beyond Security Vulnerabilities [0.7252027234425334]
人工知能(AI)分野におけるHarmレポートは現在、アドホックベースで運用されている。
対照的に、Coordinated Disclosureの倫理とエコシステムは、ソフトウェアセキュリティと透明性において重要な役割を担います。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance [3.8997087223115634]
我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
論文 参考訳(メタデータ) (2022-06-09T19:18:47Z) - System Cards for AI-Based Decision-Making for Public Policy [5.076419064097733]
本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
論文 参考訳(メタデータ) (2022-03-01T18:56:45Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Generalizing Cross-Document Event Coreference Resolution Across Multiple
Corpora [63.429307282665704]
クロスドキュメントイベントコア参照解決(CDCR)は、文書の集合全体にわたってイベントの特定とクラスタ化を行う必要があるNLPタスクである。
CDCRは、下流のマルチドキュメントアプリケーションに利益をもたらすことを目標としているが、CDCRの適用による改善はまだ示されていない。
これまでのCDCRシステムは,1つのコーパスでのみ開発,トレーニング,テストが行われた。
論文 参考訳(メタデータ) (2020-11-24T17:45:03Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。