論文の概要: A Framework for Assurance Audits of Algorithmic Systems
- arxiv url: http://arxiv.org/abs/2401.14908v1
- Date: Fri, 26 Jan 2024 14:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 14:51:28.285959
- Title: A Framework for Assurance Audits of Algorithmic Systems
- Title(参考訳): アルゴリズムシステムの保証監査のためのフレームワーク
- Authors: Khoa Lam, Benjamin Lange, Borhane Blili-Hamelin, Jovana Davidovic,
Shea Brown, Ali Hasan
- Abstract要約: ますます多くの規制が、AIシステムの透明性と説明責任を達成するための実施メカニズムとして、AI監査の概念を提案している。
さまざまな形のAI監査に関するいくつかの規範にもかかわらず、コンプライアンスと保証の目的のための監査は現在、プラクティス、手順、標準についてほとんど合意されていない。
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
- 参考スコア(独自算出の注目度): 2.367447006657134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An increasing number of regulations propose the notion of AI audits as an
enforcement mechanism for achieving transparency and accountability for AI
systems. Despite some converging norms around various forms of AI auditing,
auditing for the purpose of compliance and assurance currently have little to
no agreed upon practices, procedures, taxonomies, and standards. We propose the
criterion audit as an operationalizable compliance and assurance external audit
framework. We model elements of this approach after financial auditing
practices, and argue that AI audits should similarly provide assurance to their
stakeholders about AI organizations' ability to govern their algorithms in ways
that mitigate harms and uphold human values. We discuss the necessary
conditions for the criterion audit, and provide a procedural blueprint for
performing an audit engagement in practice. We illustrate how this framework
can be adapted to current regulations by deriving the criteria on which bias
audits for hiring algorithms can be performed, as required by the recently
effective New York City Local Law 144 of 2021. We conclude by offering critical
discussion on the benefits, inherent limitations, and implementation challenges
of applying practices of the more mature financial auditing industry to AI
auditing where robust guardrails against quality assurance issues are only
starting to emerge. Our discussion as informed by experiences in performing
these audits in practice highlights the critical role that an audit ecosystem
plays in ensuring the effectiveness of such methodology.
- Abstract(参考訳): ますます多くの規制が、AIシステムの透明性と説明責任を達成するための実施メカニズムとして、AI監査の概念を提案している。
ai監査のさまざまな形式に関するいくつかの規範があるが、コンプライアンスと保証の目的での監査は、現在、プラクティス、手順、分類法、標準についてほとんど合意されていない。
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
我々は、金融監査のプラクティス後のこのアプローチの要素をモデル化し、AI監査も同様に、AI組織が人的価値を害し維持する手段でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と論じている。
我々は,基準監査に必要な条件について議論し,実際に監査を行うための手続き的青写真を提供する。
本稿では,2021年のニューヨーク市地方法144条に基づき,採用アルゴリズムのバイアス監査の実施基準を導出することにより,この枠組みを現在の規制に適合させる方法について述べる。
私たちは最後に、より成熟した金融監査業界のプラクティスをai監査に適用するメリット、固有の制限、実装上の課題について批判的な議論を行い、品質保証問題に対する堅牢なガードレールが現われ始めたばかりです。
実際に監査を行った経験から得られた議論は,監査エコシステムがこのような方法論の有効性を確保する上で重要な役割を担っていることを強調している。
関連論文リスト
- From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - RegNLP in Action: Facilitating Compliance Through Automated Information Retrieval and Answer Generation [51.998738311700095]
その長さ、複雑さ、頻繁な更新を特徴とする規制文書は解釈が難しい。
RegNLPは、規制規則と義務のアクセスと解釈を簡素化することを目的とした、多分野のサブフィールドである。
ObliQAデータセットには、Abu Dhabi Global Markets (ADGM) からの27,869の質問が含まれている。
論文 参考訳(メタデータ) (2024-09-09T14:44:19Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Automatically Adaptive Conformal Risk Control [49.95190019041905]
本稿では,テストサンプルの難易度に適応して,統計的リスクの近似的条件制御を実現する手法を提案する。
我々のフレームワークは、ユーザが提供するコンディショニングイベントに基づく従来のコンディショニングリスク制御を超えて、コンディショニングに適した関数クラスのアルゴリズム的、データ駆動決定を行う。
論文 参考訳(メタデータ) (2024-06-25T08:29:32Z) - Pragmatic auditing: a pilot-driven approach for auditing Machine Learning systems [5.26895401335509]
本稿では,欧州委員会が公表したAI-HLEGガイドラインを拡張する手順について述べる。
監査手順は、ドキュメント、説明責任、品質保証を明確に重視するMLライフサイクルモデルに基づいています。
2つの異なる組織による実世界のユースケースで実施される2つのパイロットについて説明する。
論文 参考訳(メタデータ) (2024-05-21T20:40:37Z) - Auditing Work: Exploring the New York City algorithmic bias audit regime [0.4580134784455941]
地方法144条 (LL 144) は、独立監査官が実施する年次バイアス監査を実施するために、雇用の自動化された雇用決定ツール(AEDT)を使用する雇用者を義務付けている。
本稿では,LL 144の他国におけるアルゴリズム監査の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-12T22:37:15Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - AI auditing: The Broken Bus on the Road to AI Accountability [1.9758196889515185]
「AI監査」エコシステムは泥だらけで不正確で、様々な概念を掘り下げて、実践に関わるステークホルダーをマップアウトするのは困難です。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
私たちは、AI監査研究のごく一部だけが、望ましい説明責任の結果に変換されていることに気付きました。
論文 参考訳(メタデータ) (2024-01-25T19:00:29Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。