論文の概要: Acceptable risks in Europe's proposed AI Act: Reasonableness and other
principles for deciding how much risk management is enough
- arxiv url: http://arxiv.org/abs/2308.02047v1
- Date: Wed, 26 Jul 2023 09:21:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 01:47:10.427650
- Title: Acceptable risks in Europe's proposed AI Act: Reasonableness and other
principles for deciding how much risk management is enough
- Title(参考訳): 欧州のai法で許容されるリスク - リスク管理がどの程度で十分かを決める他の原則
- Authors: Henry Fraser and Jose-Miguel Bello y Villarino
- Abstract要約: この法律は「信頼できる」AIを規制の負担に比例して推進することを目的としている。
リスク受容性に関する規定では、リスクの高いシステムからの残留リスクを「可能な限り」削減または排除する必要がある。
本稿は、議会のアプローチがより機能しやすく、比例性と信頼性の目標とのバランスが良くなっていることを主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper critically evaluates the European Commission's proposed AI Act's
approach to risk management and risk acceptability for high-risk AI systems
that pose risks to fundamental rights and safety. The Act aims to promote
"trustworthy" AI with a proportionate regulatory burden. Its provisions on risk
acceptability require residual risks from high-risk systems to be reduced or
eliminated "as far as possible", having regard to the "state of the art". This
criterion, especially if interpreted narrowly, is unworkable and promotes
neither proportionate regulatory burden, nor trustworthiness. By contrast the
Parliament's most recent draft amendments to the risk management provisions
introduce "reasonableness", cost-benefit analysis, and are more transparent
about the value-laden and contextual nature of risk acceptability judgements.
This paper argues that the Parliament's approach is more workable, and better
balances the goals of proportionality and trustworthiness. It explains what
reasonableness in risk acceptability judgments would entail, drawing on
principles from negligence law and European medical devices regulation. And it
contends that the approach to risk acceptability judgments need a firm
foundation of civic legitimacy: including detailed guidance or involvement from
regulators, and meaningful input from affected stakeholders.
- Abstract(参考訳): 本稿では、基本的権利と安全性にリスクをもたらすリスクの高いAIシステムに対して、欧州委員会が提案したリスク管理とリスク受容性に対するAI法のアプローチを批判的に評価する。
この法律は「信頼できる」AIを規制の負担に比例して推進することを目的としている。
そのリスク受容性に関する規定は、リスクの高いシステムからの残留リスクを「芸術の状態」に関して「可能な限り」削減または排除する必要がある。
この基準、特に狭義に解釈される場合、作業不能であり、規制上の負担や信頼性を比例しない。
これとは対照的に、欧州議会のリスク管理条項に関する最新の修正案は「合理的性」、コスト対効果の分析を導入し、リスク受容可能性判断の価値と文脈の性質をより透明にしている。
この論文では、議会のアプローチはより機能的であり、比例性と信頼性の目標のバランスが良いと論じている。
リスク受容性判断の合理的性は、無視法や欧州医療機器規制の原則に依拠して説明されている。
また、リスク受容性判断のアプローチには、規制当局による詳細なガイダンスや関与、影響のある利害関係者からの有意義なインプットなど、市民の正当性の確固たる基礎が必要です。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Risk thresholds for frontier AI [1.053373860696675]
人気が高まっているアプローチの1つは、機能しきい値を定義することである。
リスク閾値は単に、どれだけのリスクが過剰かを記述するだけです。
主な欠点は、信頼性の高い評価が難しいことだ。
論文 参考訳(メタデータ) (2024-06-20T20:16:29Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - RiskQ: Risk-sensitive Multi-Agent Reinforcement Learning Value Factorization [49.26510528455664]
本稿では,リスクに敏感な個人・グローバル・マックス(RIGM)の原則を,個人・グローバル・マックス(IGM)と分散IGM(DIGM)の原則の一般化として紹介する。
RiskQは広範な実験によって有望な性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-03T07:18:36Z) - Normative Challenges of Risk Regulation of Artificial Intelligence and
Automated Decision-Making [0.0]
人工知能(AI)と自動意思決定(ADM)の規制をめざす最近の提案
最も顕著な例は、欧州委員会によって提案された人工知能法(AIA)である。
本稿では、主に関連する特定のリスクの種類から生じる適切なリスク規制の課題に対処する。
論文 参考訳(メタデータ) (2022-11-11T13:57:38Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [9.262092738841979]
AIベースのシステムは、組織、個人、社会に価値を提供するために、ますます活用されている。
リスクは、提案された規制、訴訟、および一般的な社会的懸念につながった。
本稿では,定量的AIリスクアセスメントの概念について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - Actionable Guidance for High-Consequence AI Risk Management: Towards
Standards Addressing AI Catastrophic Risks [12.927021288925099]
人工知能(AI)システムは、社会規模で非常に高い、または破滅的な結果をもたらす事象のリスクを提示することができる。
NISTはAIリスク評価と管理に関する自主的なガイダンスとして、AI RMF(AI Artificial Intelligence Risk Management Framework)を開発している。
我々は、非常に高い、または破滅的な結果のイベントのリスクを特定し、管理することに焦点を当てた、行動可能なガイダンスの詳細な推奨を提供する。
論文 参考訳(メタデータ) (2022-06-17T18:40:41Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。