論文の概要: AI auditing: The Broken Bus on the Road to AI Accountability
- arxiv url: http://arxiv.org/abs/2401.14462v1
- Date: Thu, 25 Jan 2024 19:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 16:46:58.611541
- Title: AI auditing: The Broken Bus on the Road to AI Accountability
- Title(参考訳): AI監査:AIアカウンタビリティへの道のりで壊れたバス
- Authors: Abeba Birhane, Ryan Steed, Victor Ojewale, Briana Vecchione, Inioluwa
Deborah Raji
- Abstract要約: 「AI監査」エコシステムは泥だらけで不正確で、様々な概念を掘り下げて、実践に関わるステークホルダーをマップアウトするのは困難です。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
私たちは、AI監査研究のごく一部だけが、望ましい説明責任の結果に変換されていることに気付きました。
- 参考スコア(独自算出の注目度): 1.9758196889515185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most concrete measures to take towards meaningful AI
accountability is to consequentially assess and report the systems' performance
and impact. However, the practical nature of the "AI audit" ecosystem is
muddled and imprecise, making it difficult to work through various concepts and
map out the stakeholders involved in the practice. First, we taxonomize current
AI audit practices as completed by regulators, law firms, civil society,
journalism, academia, consulting agencies. Next, we assess the impact of audits
done by stakeholders within each domain. We find that only a subset of AI audit
studies translate to desired accountability outcomes. We thus assess and
isolate practices necessary for effective AI audit results, articulating the
observed connections between AI audit design, methodology and institutional
context on its effectiveness as a meaningful mechanism for accountability.
- Abstract(参考訳): 有意義なai説明責任に向けるべき最も具体的な手段の1つは、システムのパフォーマンスと影響を適切に評価し報告することである。
しかし、「ai監査」エコシステムの実際的な性質は混乱し、不正確であり、様々な概念を乗り越え、その実践に関わる利害関係者をマップすることは困難である。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
次に、各ドメイン内の利害関係者による監査の影響を評価する。
ai監査研究のサブセットだけが、望ましい説明責任の結果につながることが分かっています。
そこで我々は,効果的なAI監査結果に必要なプラクティスを評価,分離し,AI監査設計と方法論と制度的コンテキストの相互関係を,説明責任の有意義なメカニズムとして評価する。
関連論文リスト
- Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - A Framework for Assurance Audits of Algorithmic Systems [2.367447006657134]
ますます多くの規制が、AIシステムの透明性と説明責任を達成するための実施メカニズムとして、AI監査の概念を提案している。
さまざまな形のAI監査に関するいくつかの規範にもかかわらず、コンプライアンスと保証の目的のための監査は現在、プラクティス、手順、標準についてほとんど合意されていない。
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Advancing AI Audits for Enhanced AI Governance [1.875782323187985]
このポリシーレコメンデーションは、AIサービスやシステムの監査に関する問題を要約する。
健全なAIガバナンスに寄与するAI監査を促進するための3つの推奨事項を提示している。
論文 参考訳(メタデータ) (2023-11-26T16:18:17Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance [3.8997087223115634]
我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
論文 参考訳(メタデータ) (2022-06-09T19:18:47Z) - An Uncommon Task: Participatory Design in Legal AI [64.54460979588075]
われわれは10年以上前に行われた法律分野における、注目に値する、未調査のAI設計プロセスについて検討する。
インタラクティブなシミュレーション手法によって,コンピュータ科学者と弁護士が共同設計者になれることを示す。
論文 参考訳(メタデータ) (2022-03-08T15:46:52Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。