論文の概要: Normative Challenges of Risk Regulation of Artificial Intelligence and
Automated Decision-Making
- arxiv url: http://arxiv.org/abs/2211.06203v1
- Date: Fri, 11 Nov 2022 13:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:22:47.251618
- Title: Normative Challenges of Risk Regulation of Artificial Intelligence and
Automated Decision-Making
- Title(参考訳): 人工知能と自動意思決定のリスク規制の規範的課題
- Authors: Carsten Orwat (1), Jascha Bareis (1), Anja Folberth (1 and 2), Jutta
Jahnel (1) and Christian Wadephul (1) ((1) Karlsruhe Institute of Technology,
Institute for Technology Assessment and Systems Analysis, (2) University of
Heidelberg, Institute of Political Science)
- Abstract要約: 人工知能(AI)と自動意思決定(ADM)の規制をめざす最近の提案
最も顕著な例は、欧州委員会によって提案された人工知能法(AIA)である。
本稿では、主に関連する特定のリスクの種類から生じる適切なリスク規制の課題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent proposals aiming at regulating artificial intelligence (AI) and
automated decision-making (ADM) suggest a particular form of risk regulation,
i.e. a risk-based approach. The most salient example is the Artificial
Intelligence Act (AIA) proposed by the European Commission. The article
addresses challenges for adequate risk regulation that arise primarily from the
specific type of risks involved, i.e. risks to the protection of fundamental
rights and fundamental societal values. They result mainly from the normative
ambiguity of the fundamental rights and societal values in interpreting,
specifying or operationalising them for risk assessments. This is exemplified
for (1) human dignity, (2) informational self-determination, data protection
and privacy, (3) justice and fairness, and (4) the common good. Normative
ambiguities require normative choices, which are distributed among different
actors in the proposed AIA. Particularly critical normative choices are those
of selecting normative conceptions for specifying risks, aggregating and
quantifying risks including the use of metrics, balancing of value conflicts,
setting levels of acceptable risks, and standardisation. To avoid a lack of
democratic legitimacy and legal uncertainty, scientific and political debates
are suggested.
- Abstract(参考訳): 人工知能(AI)と自動意思決定(ADM)の規制を目的とした最近の提案は、リスクベースのアプローチという特定の形態のリスク規制を提案する。
最も顕著な例は、欧州委員会によって提案された人工知能法(AIA)である。
この記事は、主に関係する特定の種類のリスク、すなわち基本的権利と基本的社会的価値の保護に対するリスクから生じる適切なリスク規制の課題に対処する。
それらは主に、リスクアセスメントの解釈、特定、運用において、基本的権利と社会的価値の規範的曖昧さから生じる。
これは,(1)人間の尊厳,(2)情報自己決定,データ保護とプライバシ,(3)正義と公正,(4)共通の善に対して例示される。
規範的曖昧さは、提案されたaiaの異なるアクター間で分配される規範的選択を必要とする。
特に重要な規範的選択は、リスクを特定するための規範的概念の選択、メトリクスの使用、価値の衝突のバランス、許容されるリスクのレベルの設定、標準化を含むリスクの集約と定量化である。
民主的な正当性と法的不確実性の欠如を避けるために、科学的および政治的議論が提案されている。
関連論文リスト
- Risk Sources and Risk Management Measures in Support of Standards for General-Purpose AI Systems [2.3266896180922187]
我々は、汎用AIシステムのためのリスクソースとリスク管理対策の広範なカタログをコンパイルする。
この作業には、モデル開発、トレーニング、デプロイメントステージにわたる技術的、運用的、社会的リスクの特定が含まれる。
このカタログは、AIガバナンスと標準における利害関係者による直接的な使用を容易にするために、パブリックドメインライセンス下でリリースされている。
論文 参考訳(メタデータ) (2024-10-30T21:32:56Z) - The Artificial Intelligence Act: critical overview [0.0]
この記事では、最近承認された人工知能法を概観する。
これはまず、2024/1689年のEU(Regulation)の主要な構造、目的、アプローチを示すことから始まる。
テキストは、全体的なフレームワークが適切かつバランスが取れたとしても、アプローチは非常に複雑であり、それ自体の目的を損なうリスクがある、と結論付けている。
論文 参考訳(メタデータ) (2024-08-30T21:38:02Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - ABI Approach: Automatic Bias Identification in Decision-Making Under Risk based in an Ontology of Behavioral Economics [46.57327530703435]
損失回避のようなバイアスによって引き起こされる損失に対する優先順位を求めるリスクは、課題を引き起こし、深刻なネガティブな結果をもたらす可能性がある。
本研究は,リスクサーチの選好を自動的に識別し,説明することにより,組織意思決定者を支援する新しいソリューションであるABIアプローチを紹介する。
論文 参考訳(メタデータ) (2024-05-22T23:53:46Z) - Taxonomy to Regulation: A (Geo)Political Taxonomy for AI Risks and Regulatory Measures in the EU AI Act [0.0]
この研究は、AIに関連する(地質)政治的リスクに焦点を当てた分類法を提案する。
1)地政学的圧力,(2)悪用,(3)環境,社会的,倫理的リスク,(4)プライバシ・トラスト・ヴァイオレーションの4つのカテゴリに分類される。
論文 参考訳(メタデータ) (2024-04-17T15:32:56Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - RiskQ: Risk-sensitive Multi-Agent Reinforcement Learning Value Factorization [49.26510528455664]
本稿では,リスクに敏感な個人・グローバル・マックス(RIGM)の原則を,個人・グローバル・マックス(IGM)と分散IGM(DIGM)の原則の一般化として紹介する。
RiskQは広範な実験によって有望な性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-03T07:18:36Z) - AI Risk Profiles: A Standards Proposal for Pre-Deployment AI Risk
Disclosures [0.8702432681310399]
下流の意思決定をガイドできるリスクプロファイリング標準を提案する。
この基準は、提案したAIリスクの分類に基づいており、文献で提案されるさまざまなリスクの高度な分類を反映している。
我々はこの方法論を,公開情報を用いた多数の著名なAIシステムに適用する。
論文 参考訳(メタデータ) (2023-09-22T20:45:15Z) - Acceptable risks in Europe's proposed AI Act: Reasonableness and other
principles for deciding how much risk management is enough [0.0]
この法律は「信頼できる」AIを規制の負担に比例して推進することを目的としている。
リスク受容性に関する規定では、リスクの高いシステムからの残留リスクを「可能な限り」削減または排除する必要がある。
本稿は、議会のアプローチがより機能しやすく、比例性と信頼性の目標とのバランスが良くなっていることを主張する。
論文 参考訳(メタデータ) (2023-07-26T09:21:58Z) - Adaptive Risk-Aware Bidding with Budget Constraint in Display
Advertising [47.14651340748015]
本稿では,強化学習による予算制約を考慮した適応型リスク対応入札アルゴリズムを提案する。
リスク・アット・バリュー(VaR)に基づく不確実性とリスク傾向の本質的関係を理論的に明らかにする。
論文 参考訳(メタデータ) (2022-12-06T18:50:09Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。