論文の概要: Conformity Assessments and Post-market Monitoring: A Guide to the Role
of Auditing in the Proposed European AI Regulation
- arxiv url: http://arxiv.org/abs/2111.05071v1
- Date: Tue, 9 Nov 2021 11:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 19:14:34.662951
- Title: Conformity Assessments and Post-market Monitoring: A Guide to the Role
of Auditing in the Proposed European AI Regulation
- Title(参考訳): コンフォーマティアセスメントと市場後モニタリング: 欧州AI規制案における監査の役割の指針
- Authors: Jakob Mokander, Maria Axente, Federico Casolari, Luciano Floridi
- Abstract要約: 欧州人工知能法(European Artificial Intelligence Act)において提案されている2つの主要な執行機構について解説し議論する。
我々はAI監査を行うためのヨーロッパ規模のエコシステムを確立するための提案としてAIAが解釈できると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proposed European Artificial Intelligence Act (AIA) is the first attempt
to elaborate a general legal framework for AI carried out by any major global
economy. As such, the AIA is likely to become a point of reference in the
larger discourse on how AI systems can (and should) be regulated. In this
article, we describe and discuss the two primary enforcement mechanisms
proposed in the AIA: the conformity assessments that providers of high-risk AI
systems are expected to conduct, and the post-market monitoring plans that
providers must establish to document the performance of high-risk AI systems
throughout their lifetimes. We argue that AIA can be interpreted as a proposal
to establish a Europe-wide ecosystem for conducting AI auditing, albeit in
other words. Our analysis offers two main contributions. First, by describing
the enforcement mechanisms included in the AIA in terminology borrowed from
existing literature on AI auditing, we help providers of AI systems understand
how they can prove adherence to the requirements set out in the AIA in
practice. Second, by examining the AIA from an auditing perspective, we seek to
provide transferable lessons from previous research about how to refine further
the regulatory approach outlined in the AIA. We conclude by highlighting seven
aspects of the AIA where amendments (or simply clarifications) would be
helpful. These include, above all, the need to translate vague concepts into
verifiable criteria and to strengthen the institutional safeguards concerning
conformity assessments based on internal checks.
- Abstract(参考訳): 提案されている欧州人工知能法(AIA)は、主要な世界経済が実施するAIの一般的な法的枠組みを精査する最初の試みである。
したがってAIAは、AIシステムがどのように規制される(そしてすべきである)かについてのより大きな議論において、参照ポイントとなる可能性が高い。
本稿では、AIAで提案されている2つの主要な実施メカニズムについて、ハイリスクなAIシステムのプロバイダが行うであろう適合性評価と、ハイリスクなAIシステムのパフォーマンスを生涯にわたって文書化するために提供者が確立しなければならないポストマーケット監視計画について述べる。
我々はAIAを、言い換えれば、AI監査を行うためのヨーロッパ規模のエコシステムを確立するための提案と解釈することができると論じる。
私たちの分析には2つの大きな貢献がある。
まず、AI監査に関する既存の文献から借用された用語でAIAに含まれる実施メカニズムを説明することにより、AIシステムの提供者は、実際にAIAで設定された要件にどのように準拠しているかを理解するのに役立つ。
第2に、監査の観点からAIAを検討することにより、AIAに概説されている規制アプローチをさらに洗練させる方法について、これまでの研究から移行可能な教訓を提供する。
我々は、修正(または単に明確化)が役立つAIAの7つの側面を強調した。
とりわけ、曖昧な概念を検証可能な基準に翻訳し、内部チェックに基づく適合性評価に関する制度的保護を強化することが必要である。
関連論文リスト
- Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Advancing AI Audits for Enhanced AI Governance [1.875782323187985]
このポリシーレコメンデーションは、AIサービスやシステムの監査に関する問題を要約する。
健全なAIガバナンスに寄与するAI監査を促進するための3つの推奨事項を提示している。
論文 参考訳(メタデータ) (2023-11-26T16:18:17Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - APPRAISE: a governance framework for innovation with AI systems [0.0]
EU人工知能法(英語: EU Artificial Intelligence Act、AIA)は、AIシステムの有害な影響を封じ込めようとする最初の重大な立法の試みである。
本稿では,AIイノベーションのためのガバナンスフレームワークを提案する。
このフレームワークは戦略変数と責任ある価値創造のギャップを埋める。
論文 参考訳(メタデータ) (2023-09-26T12:20:07Z) - Statutory Professions in AI governance and their consequences for
explainable AI [2.363388546004777]
AIの使用によって引き起こされる意図的・偶発的な害は個人の健康、安全、権利に影響を及ぼした。
我々は、AI規制フレームワークの必須部分として、法定専門職の枠組みを導入することを提案する。
論文 参考訳(メタデータ) (2023-06-15T08:51:28Z) - How to Assess Trustworthy AI in Practice [0.22740899647050103]
Z-Inspection$smallcircledR$は、AIベースの技術の信頼性を評価するための総合的なプロセスである。
欧州連合の高レベルエキスパートグループ(EU HLEG)のガイドラインを信頼に値するAIに使用。
論文 参考訳(メタデータ) (2022-06-20T16:46:21Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。