論文の概要: Can AI be Auditable?
- arxiv url: http://arxiv.org/abs/2509.00575v2
- Date: Mon, 08 Sep 2025 12:26:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.343236
- Title: Can AI be Auditable?
- Title(参考訳): AIは監査可能であるか?
- Authors: Himanshu Verma, Kirtan Padh, Eva Thelisson,
- Abstract要約: オーディタビリティ(Auditability)とは、倫理的、法的、技術的基準に準拠するために独立して評価されるAIシステムの能力である。
この章では、EU AI Actなどの新たな規制フレームワークを通じて、監査容易性がどのように形式化されているかを論じている。
技術的不透明さ、一貫性のないドキュメントプラクティス、標準化された監査ツールとメトリクスの欠如など、AI監査可能性に直面する課題を分析する。
- 参考スコア(独自算出の注目度): 3.0260353258798625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Auditability is defined as the capacity of AI systems to be independently assessed for compliance with ethical, legal, and technical standards throughout their lifecycle. The chapter explores how auditability is being formalized through emerging regulatory frameworks, such as the EU AI Act, which mandate documentation, risk assessments, and governance structures. It analyzes the diverse challenges facing AI auditability, including technical opacity, inconsistent documentation practices, lack of standardized audit tools and metrics, and conflicting principles within existing responsible AI frameworks. The discussion highlights the need for clear guidelines, harmonized international regulations, and robust socio-technical methodologies to operationalize auditability at scale. The chapter concludes by emphasizing the importance of multi-stakeholder collaboration and auditor empowerment in building an effective AI audit ecosystem. It argues that auditability must be embedded in AI development practices and governance infrastructures to ensure that AI systems are not only functional but also ethically and legally aligned.
- Abstract(参考訳): オーディタビリティは、AIシステムのライフサイクルを通じて倫理的、法的、技術的標準に準拠するために独立して評価される能力として定義される。
この章では、ドキュメンテーションやリスクアセスメント、ガバナンス構造を委任するEU AI Actなど、新たな規制フレームワークを通じて監査が形式化されている方法について論じている。
技術的不透明さ、一貫性のないドキュメントプラクティス、標準化された監査ツールとメトリクスの欠如、既存の責任を持つAIフレームワーク内の矛盾する原則など、AI監査可能性に直面するさまざまな課題を分析している。
この議論は、オーディショナビリティを大規模に運用するための明確なガイドライン、調和した国際規則、堅牢な社会技術方法論の必要性を強調している。
この章は、効果的なAI監査エコシステムを構築する上で、マルチステークホルダーのコラボレーションと監査権限の重要性を強調して締めくくっている。
監査性はAI開発プラクティスやガバナンスインフラストラクチャに埋め込まれて,AIシステムが機能的だけでなく,倫理的にも法的に整合していることを保証する必要がある,と氏は主張する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Auditing of AI: Legal, Ethical and Technical Approaches [0.0]
AI監査は、研究と実践の急速に成長している分野である。
AI監査に対する異なるアプローチには、さまざまな余裕と制約がある。
AIガバナンスメカニズムとしての監査の進化における次のステップは、これらの利用可能なアプローチのインターリンクであるべきです。
論文 参考訳(メタデータ) (2024-07-07T12:49:58Z) - A Framework for Assurance Audits of Algorithmic Systems [2.2342503377379725]
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
AI監査も同様に、AI組織が人間の価値を害し、維持する方法でアルゴリズムを管理する能力について、ステークホルダーに保証を提供するべきだ、と私たちは主張する。
我々は、より成熟した金融監査産業の実践をAI監査に適用する上でのメリット、固有の制限、実装上の課題について、批判的な議論をすることで締めくくります。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - AI auditing: The Broken Bus on the Road to AI Accountability [1.9758196889515185]
「AI監査」エコシステムは泥だらけで不正確で、様々な概念を掘り下げて、実践に関わるステークホルダーをマップアウトするのは困難です。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
私たちは、AI監査研究のごく一部だけが、望ましい説明責任の結果に変換されていることに気付きました。
論文 参考訳(メタデータ) (2024-01-25T19:00:29Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。