論文の概要: Normative Challenges of Risk Regulation of Artificial Intelligence and
Automated Decision-Making
- arxiv url: http://arxiv.org/abs/2211.06203v1
- Date: Fri, 11 Nov 2022 13:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:22:47.251618
- Title: Normative Challenges of Risk Regulation of Artificial Intelligence and
Automated Decision-Making
- Title(参考訳): 人工知能と自動意思決定のリスク規制の規範的課題
- Authors: Carsten Orwat (1), Jascha Bareis (1), Anja Folberth (1 and 2), Jutta
Jahnel (1) and Christian Wadephul (1) ((1) Karlsruhe Institute of Technology,
Institute for Technology Assessment and Systems Analysis, (2) University of
Heidelberg, Institute of Political Science)
- Abstract要約: 人工知能(AI)と自動意思決定(ADM)の規制をめざす最近の提案
最も顕著な例は、欧州委員会によって提案された人工知能法(AIA)である。
本稿では、主に関連する特定のリスクの種類から生じる適切なリスク規制の課題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent proposals aiming at regulating artificial intelligence (AI) and
automated decision-making (ADM) suggest a particular form of risk regulation,
i.e. a risk-based approach. The most salient example is the Artificial
Intelligence Act (AIA) proposed by the European Commission. The article
addresses challenges for adequate risk regulation that arise primarily from the
specific type of risks involved, i.e. risks to the protection of fundamental
rights and fundamental societal values. They result mainly from the normative
ambiguity of the fundamental rights and societal values in interpreting,
specifying or operationalising them for risk assessments. This is exemplified
for (1) human dignity, (2) informational self-determination, data protection
and privacy, (3) justice and fairness, and (4) the common good. Normative
ambiguities require normative choices, which are distributed among different
actors in the proposed AIA. Particularly critical normative choices are those
of selecting normative conceptions for specifying risks, aggregating and
quantifying risks including the use of metrics, balancing of value conflicts,
setting levels of acceptable risks, and standardisation. To avoid a lack of
democratic legitimacy and legal uncertainty, scientific and political debates
are suggested.
- Abstract(参考訳): 人工知能(AI)と自動意思決定(ADM)の規制を目的とした最近の提案は、リスクベースのアプローチという特定の形態のリスク規制を提案する。
最も顕著な例は、欧州委員会によって提案された人工知能法(AIA)である。
この記事は、主に関係する特定の種類のリスク、すなわち基本的権利と基本的社会的価値の保護に対するリスクから生じる適切なリスク規制の課題に対処する。
それらは主に、リスクアセスメントの解釈、特定、運用において、基本的権利と社会的価値の規範的曖昧さから生じる。
これは,(1)人間の尊厳,(2)情報自己決定,データ保護とプライバシ,(3)正義と公正,(4)共通の善に対して例示される。
規範的曖昧さは、提案されたaiaの異なるアクター間で分配される規範的選択を必要とする。
特に重要な規範的選択は、リスクを特定するための規範的概念の選択、メトリクスの使用、価値の衝突のバランス、許容されるリスクのレベルの設定、標準化を含むリスクの集約と定量化である。
民主的な正当性と法的不確実性の欠如を避けるために、科学的および政治的議論が提案されている。
関連論文リスト
- The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - RiskQ: Risk-sensitive Multi-Agent Reinforcement Learning Value
Factorization [51.386963525376395]
本稿では,リスクに敏感な個人・グローバル・マックス(RIGM)の原則を,個人・グローバル・マックス(IGM)と分散IGM(DIGM)の原則の一般化として紹介する。
RiskQは広範な実験によって有望な性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-03T07:18:36Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - AI Risk Profiles: A Standards Proposal for Pre-Deployment AI Risk
Disclosures [0.8702432681310399]
下流の意思決定をガイドできるリスクプロファイリング標準を提案する。
この基準は、提案したAIリスクの分類に基づいており、文献で提案されるさまざまなリスクの高度な分類を反映している。
我々はこの方法論を,公開情報を用いた多数の著名なAIシステムに適用する。
論文 参考訳(メタデータ) (2023-09-22T20:45:15Z) - Acceptable risks in Europe's proposed AI Act: Reasonableness and other
principles for deciding how much risk management is enough [0.0]
この法律は「信頼できる」AIを規制の負担に比例して推進することを目的としている。
リスク受容性に関する規定では、リスクの高いシステムからの残留リスクを「可能な限り」削減または排除する必要がある。
本稿は、議会のアプローチがより機能しやすく、比例性と信頼性の目標とのバランスが良くなっていることを主張する。
論文 参考訳(メタデータ) (2023-07-26T09:21:58Z) - AI and ethics in insurance: a new solution to mitigate proxy
discrimination in risk modeling [0.0]
保険におけるデータの倫理的利用に関する規制当局の注目が高まる中で、アクチュアリアル・コミュニティは価格設定とリスク選択の実践を再考しなければならない。
エクイティ(Equity)は、現在合意に達することなく互いに影響を及ぼすあらゆる分野において、多くの異なる定義を持つ哲学概念である。
我々は、線形代数の数学的概念により間接的差別のリスクを低減するために、文献ではまだ満たされていない革新的な方法を提案する。
論文 参考訳(メタデータ) (2023-07-25T16:20:56Z) - Adaptive Risk-Aware Bidding with Budget Constraint in Display
Advertising [47.14651340748015]
本稿では,強化学習による予算制約を考慮した適応型リスク対応入札アルゴリズムを提案する。
リスク・アット・バリュー(VaR)に基づく不確実性とリスク傾向の本質的関係を理論的に明らかにする。
論文 参考訳(メタデータ) (2022-12-06T18:50:09Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [9.262092738841979]
AIベースのシステムは、組織、個人、社会に価値を提供するために、ますます活用されている。
リスクは、提案された規制、訴訟、および一般的な社会的懸念につながった。
本稿では,定量的AIリスクアセスメントの概念について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - Actionable Guidance for High-Consequence AI Risk Management: Towards
Standards Addressing AI Catastrophic Risks [12.927021288925099]
人工知能(AI)システムは、社会規模で非常に高い、または破滅的な結果をもたらす事象のリスクを提示することができる。
NISTはAIリスク評価と管理に関する自主的なガイダンスとして、AI RMF(AI Artificial Intelligence Risk Management Framework)を開発している。
我々は、非常に高い、または破滅的な結果のイベントのリスクを特定し、管理することに焦点を当てた、行動可能なガイダンスの詳細な推奨を提供する。
論文 参考訳(メタデータ) (2022-06-17T18:40:41Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。