論文の概要: AuditMAI: Towards An Infrastructure for Continuous AI Auditing
- arxiv url: http://arxiv.org/abs/2406.14243v1
- Date: Thu, 20 Jun 2024 12:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 13:52:01.193453
- Title: AuditMAI: Towards An Infrastructure for Continuous AI Auditing
- Title(参考訳): AuditMAI: 継続的AI監査のためのインフラストラクチャを目指す
- Authors: Laura Waltersdorfer, Fajar J. Ekaputra, Tomasz Miksa, Marta Sabou,
- Abstract要約: オーディタビリティは、責任あるAIシステム設計を達成するためのコア要件である。
既存のAI監査ツールは、一般的に統合機能がなく、独立したアプローチのままである。
金融などの他のドメインにインスパイアされた継続的AI監査は、AIシステムの定期的な評価を行うための有望な方向である。
- 参考スコア(独自算出の注目度): 0.6749750044497732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) Auditability is a core requirement for achieving responsible AI system design. However, it is not yet a prominent design feature in current applications. Existing AI auditing tools typically lack integration features and remain as isolated approaches. This results in manual, high-effort, and mostly one-off AI audits, necessitating alternative methods. Inspired by other domains such as finance, continuous AI auditing is a promising direction to conduct regular assessments of AI systems. The issue remains, however, since the methods for continuous AI auditing are not mature yet at the moment. To address this gap, we propose the Auditability Method for AI (AuditMAI), which is intended as a blueprint for an infrastructure towards continuous AI auditing. For this purpose, we first clarified the definition of AI auditability based on literature. Secondly, we derived requirements from two industrial use cases for continuous AI auditing tool support. Finally, we developed AuditMAI and discussed its elements as a blueprint for a continuous AI auditability infrastructure.
- Abstract(参考訳): 人工知能(AI) オーディタビリティは、責任あるAIシステム設計を達成するための中核的な要件である。
しかし、現在のアプリケーションでは、まだ顕著な設計機能ではない。
既存のAI監査ツールは、一般的に統合機能がなく、独立したアプローチのままである。
この結果、手動、高精力、主にワンオフのAI監査が行われ、代替手法が必要になります。
金融などの他のドメインにインスパイアされた継続的AI監査は、AIシステムの定期的な評価を行うための有望な方向である。
しかし、継続的AI監査の方法は現時点ではまだ成熟していないため、問題は残る。
このギャップに対処するために、継続的AI監査に向けたインフラの青写真として意図されたAI監査可能性手法(AuditMAI)を提案する。
そこで我々はまず,文献に基づくAI監査可能性の定義を明らかにした。
第2に,継続的AI監査ツールサポートの2つの産業ユースケースから要件を抽出した。
最後に、AuditMAIを開発し、その要素を継続的AI監査インフラの青写真として論じました。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Auditing of AI: Legal, Ethical and Technical Approaches [0.0]
AI監査は、研究と実践の急速に成長している分野である。
AI監査に対する異なるアプローチには、さまざまな余裕と制約がある。
AIガバナンスメカニズムとしての監査の進化における次のステップは、これらの利用可能なアプローチのインターリンクであるべきです。
論文 参考訳(メタデータ) (2024-07-07T12:49:58Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - The Necessity of AI Audit Standards Boards [0.0]
我々は、監査基準の作成は不十分であるだけでなく、無害で一貫性のない基準を広めることによって積極的に有害であると主張している。
代わりに、監査方法と標準を開発・更新する責任を持つAI監査基準委員会(AI Audit Standards Board)の設立を提案する。
論文 参考訳(メタデータ) (2024-04-11T15:08:24Z) - Towards AI Accountability Infrastructure: Gaps and Opportunities in AI Audit Tooling [1.841662059101602]
監査は、デプロイされた人工知能(AI)システムのリスクと限界を特定するための重要なメカニズムである。
私たちは利用可能なAI監査ツールの現在のエコシステムをマップします。
我々は、多くのAI監査実践者にとって、ニーズの全範囲を適切にサポートするリソースが不足していると結論付けている。
論文 参考訳(メタデータ) (2024-02-27T19:52:54Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Advancing AI Audits for Enhanced AI Governance [1.875782323187985]
このポリシーレコメンデーションは、AIサービスやシステムの監査に関する問題を要約する。
健全なAIガバナンスに寄与するAI監査を促進するための3つの推奨事項を提示している。
論文 参考訳(メタデータ) (2023-11-26T16:18:17Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The application of artificial intelligence in software engineering: a
review challenging conventional wisdom [0.9651131604396904]
この調査章は、ソフトウェア工学に適用されるAIの最も一般的な方法のレビューである。
このレビューでは、1975年から2017年にかけての要件フェーズについて、46の主要なAI駆動手法が発見されている。
この章の目的は、以下の質問に答えることである。
論文 参考訳(メタデータ) (2021-08-03T15:59:59Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。