論文の概要: A Framework for Assurance Audits of Algorithmic Systems
- arxiv url: http://arxiv.org/abs/2401.14908v1
- Date: Fri, 26 Jan 2024 14:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 14:51:28.285959
- Title: A Framework for Assurance Audits of Algorithmic Systems
- Title(参考訳): アルゴリズムシステムの保証監査のためのフレームワーク
- Authors: Khoa Lam, Benjamin Lange, Borhane Blili-Hamelin, Jovana Davidovic,
Shea Brown, Ali Hasan
- Abstract要約: ますます多くの規制が、AIシステムの透明性と説明責任を達成するための実施メカニズムとして、AI監査の概念を提案している。
さまざまな形のAI監査に関するいくつかの規範にもかかわらず、コンプライアンスと保証の目的のための監査は現在、プラクティス、手順、標準についてほとんど合意されていない。
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
- 参考スコア(独自算出の注目度): 2.367447006657134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An increasing number of regulations propose the notion of AI audits as an
enforcement mechanism for achieving transparency and accountability for AI
systems. Despite some converging norms around various forms of AI auditing,
auditing for the purpose of compliance and assurance currently have little to
no agreed upon practices, procedures, taxonomies, and standards. We propose the
criterion audit as an operationalizable compliance and assurance external audit
framework. We model elements of this approach after financial auditing
practices, and argue that AI audits should similarly provide assurance to their
stakeholders about AI organizations' ability to govern their algorithms in ways
that mitigate harms and uphold human values. We discuss the necessary
conditions for the criterion audit, and provide a procedural blueprint for
performing an audit engagement in practice. We illustrate how this framework
can be adapted to current regulations by deriving the criteria on which bias
audits for hiring algorithms can be performed, as required by the recently
effective New York City Local Law 144 of 2021. We conclude by offering critical
discussion on the benefits, inherent limitations, and implementation challenges
of applying practices of the more mature financial auditing industry to AI
auditing where robust guardrails against quality assurance issues are only
starting to emerge. Our discussion as informed by experiences in performing
these audits in practice highlights the critical role that an audit ecosystem
plays in ensuring the effectiveness of such methodology.
- Abstract(参考訳): ますます多くの規制が、AIシステムの透明性と説明責任を達成するための実施メカニズムとして、AI監査の概念を提案している。
ai監査のさまざまな形式に関するいくつかの規範があるが、コンプライアンスと保証の目的での監査は、現在、プラクティス、手順、分類法、標準についてほとんど合意されていない。
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
我々は、金融監査のプラクティス後のこのアプローチの要素をモデル化し、AI監査も同様に、AI組織が人的価値を害し維持する手段でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と論じている。
我々は,基準監査に必要な条件について議論し,実際に監査を行うための手続き的青写真を提供する。
本稿では,2021年のニューヨーク市地方法144条に基づき,採用アルゴリズムのバイアス監査の実施基準を導出することにより,この枠組みを現在の規制に適合させる方法について述べる。
私たちは最後に、より成熟した金融監査業界のプラクティスをai監査に適用するメリット、固有の制限、実装上の課題について批判的な議論を行い、品質保証問題に対する堅牢なガードレールが現われ始めたばかりです。
実際に監査を行った経験から得られた議論は,監査エコシステムがこのような方法論の有効性を確保する上で重要な役割を担っていることを強調している。
関連論文リスト
- Auditing Work: Exploring the New York City algorithmic bias audit regime [0.4580134784455941]
地方法144条 (LL 144) は、独立監査官が実施する年次バイアス監査を実施するために、雇用の自動化された雇用決定ツール(AEDT)を使用する雇用者を義務付けている。
本稿では,LL 144の他国におけるアルゴリズム監査の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-12T22:37:15Z) - AI auditing: The Broken Bus on the Road to AI Accountability [1.9758196889515185]
「AI監査」エコシステムは泥だらけで不正確で、様々な概念を掘り下げて、実践に関わるステークホルダーをマップアウトするのは困難です。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
私たちは、AI監査研究のごく一部だけが、望ましい説明責任の結果に変換されていることに気付きました。
論文 参考訳(メタデータ) (2024-01-25T19:00:29Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Prescriptive Process Monitoring: Quo Vadis? [64.39761523935613]
本論文はシステム文献レビュー(SLR)を通して,本分野における既存手法について考察する。
SLRは今後の研究の課題や分野に関する洞察を提供し、規範的なプロセス監視手法の有用性と適用性を高めることができる。
論文 参考訳(メタデータ) (2021-12-03T08:06:24Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z) - Towards Accountability in the Use of Artificial Intelligence for Public
Administrations [0.0]
我々は、タスクが計算駆動システムに委譲されるとき、分散責任、受入、無知による受入という現象は不完全なデリゲーションの例であると主張する。
公的な透明性を通じた直接的説明責任と、公的な組織における監査人への透明性による間接的説明責任の両方が、民主的な自治の原則によるデオントロジーの問題として、倫理的にも倫理的にも必要である。
論文 参考訳(メタデータ) (2021-05-04T11:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。