論文の概要: Heterogeneity of AI-Induced Societal Harms and the Failure of Omnibus AI
Laws
- arxiv url: http://arxiv.org/abs/2303.11196v1
- Date: Mon, 20 Mar 2023 15:23:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 14:49:41.824217
- Title: Heterogeneity of AI-Induced Societal Harms and the Failure of Omnibus AI
Laws
- Title(参考訳): AIによる社会的ハームの不均一性とOmnibus AI法違反
- Authors: Sangchul Park
- Abstract要約: リスクの高い、あるいは重要なAIに対して、安全性、公正性、説明責任、プライバシ規則をすべて遵守させることは、不合理である。
議会は、彼らが引き起こす社会的な害の種類に応じてAIシステムを分類することで、既存の規制を徐々に順応すべきである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-induced societal harms mirror existing problems in domains where AI
replaces or complements traditional methodologies. However, trustworthy AI
discourses postulate the homogeneity of AI, aim to derive common causes
regarding the harms they generate, and demand uniform human interventions. Such
AI monism has spurred legislation for omnibus AI laws requiring any high-risk
AI systems to comply with a full, uniform package of rules on fairness,
transparency, accountability, human oversight, accuracy, robustness, and
security, as demonstrated by the EU AI Regulation and the U.S. draft
Algorithmic Accountability Act. However, it is irrational to require high-risk
or critical AIs to comply with all the safety, fairness, accountability, and
privacy regulations when it is possible to separate AIs entailing safety risks,
biases, infringements, and privacy problems. Legislators should gradually adapt
existing regulations by categorizing AI systems according to the types of
societal harms they induce. Accordingly, this paper proposes the following
categorizations, subject to ongoing empirical reassessments. First, regarding
intelligent agents, safety regulations must be adapted to address incremental
accident risks arising from autonomous behavior. Second, regarding
discriminative models, law must focus on the mitigation of allocative harms and
the disclosure of marginal effects of immutable features. Third, for generative
models, law should optimize developer liability for data mining and content
generation, balancing potential social harms arising from infringing content
and the negative impact of excessive filtering and identify cases where its
non-human identity should be disclosed. Lastly, for cognitive models, data
protection law should be adapted to effectively address privacy, surveillance,
and security problems and facilitate governance built on public-private
partnerships.
- Abstract(参考訳): AIによって引き起こされる社会的障害は、AIが従来の方法論を置き換えたり補完したりする領域における既存の問題を反映する。
しかし、信頼できるAI談話は、AIの均質性を仮定し、それらが生み出す害に関する共通の原因を導き、統一された人間の介入を要求する。
このようなAIモニズムは、EUのAI規則と米国ドラフトのアルゴリズム的説明責任法が示すように、リスクの高いAIシステムが公正性、透明性、説明責任、人間の監督、正確性、堅牢性、およびセキュリティに関する完全な統一された規則に従うことを要求するオムニバスAI法の制定を促した。
しかし、安全リスク、バイアス、侵害、プライバシ問題を含むAIを分離できる場合には、ハイリスクまたはクリティカルなAIに対して、すべての安全、公正性、説明責任、プライバシ規制に従うように要求するのは合理的ではない。
議会は、彼らが引き起こす社会的な害の種類に応じてAIシステムを分類することで、既存の規制を徐々に順応すべきである。
そこで本稿では,経験的再評価を前提として,以下の分類を提案する。
第一に、知的エージェントに関しては、自律行動によるインクリメンタルな事故リスクに対処するために安全規制を適用する必要がある。
第二に、差別的モデルに関して、法は割当的害の緩和と不変特徴の限界効果の開示に焦点を当てなければならない。
第3に、生成モデルでは、データマイニングとコンテンツ生成に対する開発者の責任を最適化し、コンテンツの侵害による潜在的な社会的損害と過剰なフィルタリングによる悪影響をバランスさせ、非人間的アイデンティティを開示すべきケースを特定するべきである。
最後に、認知モデルの場合、データ保護法は、プライバシ、監視、セキュリティ問題に効果的に対処し、パブリック・プライベートなパートナーシップに基づくガバナンスを促進するために適用されるべきである。
関連論文リスト
- Resolving Ethics Trade-offs in Implementing Responsible AI [20.02114982150612]
初歩的なものから複雑なものまで、トレードオフを通じて緊張に対処するための5つのアプローチをカバーします。
いずれのアプローチも、すべての組織、システム、アプリケーションに適していない可能性が高い。
i)緊張の積極的な識別、(ii)倫理的側面の優先順位付けと重み付け、(iii)トレードオフ決定の正当化と文書化からなる枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-16T04:14:23Z) - Generative AI in EU Law: Liability, Privacy, Intellectual Property, and
Cybersecurity [2.1249213103048414]
本稿では、欧州連合の文脈におけるジェネレーティブAIと大規模言語モデル(LLM)の法的および規制的意味について述べる。
責任、プライバシー、知的財産権、サイバーセキュリティの側面を分析する。
生成モデルの安全性とコンプライアンスを保証するためのレコメンデーションを提案している。
論文 参考訳(メタデータ) (2024-01-14T19:16:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Measuring Value Alignment [12.696227679697493]
本稿では,AIシステムと人的価値の整合性を定量化する新しいフォーマリズムを提案する。
このフォーマリズムを利用することで、AI開発者と倫理学者は、人間の価値と調和して動作するように、AIシステムを設計し、評価することができる。
論文 参考訳(メタデータ) (2023-12-23T12:30:06Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
人工知能(AI)の最近の進歩は、政府の変革を約束している。
新しいAIシステムは、社会の規範的な期待に沿うように振る舞うことが重要である。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。