論文の概要: Considering Fundamental Rights in the European Standardisation of Artificial Intelligence: Nonsense or Strategic Alliance?
- arxiv url: http://arxiv.org/abs/2402.16869v1
- Date: Tue, 23 Jan 2024 10:17:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 07:09:00.281961
- Title: Considering Fundamental Rights in the European Standardisation of Artificial Intelligence: Nonsense or Strategic Alliance?
- Title(参考訳): 欧州連合の人工知能標準化における基本的権利を考える--「ナンセンス」か「戦略的同盟」か
- Authors: Marion Ho-Dac,
- Abstract要約: この章は、AI標準と基本的権利の関係を明確にすることを目的としている。
取り組んだ主な問題は、将来のAI法に基づく調和された標準の採用が、基本的権利を考慮に入れるべきかどうかである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the European context, both the EU AI Act proposal and the draft Standardisation Request on safe and trustworthy AI link standardisation to fundamental rights. However, these texts do not provide any guidelines that specify and detail the relationship between AI standards and fundamental rights, its meaning or implication. This chapter aims to clarify this critical regulatory blind spot. The main issue tackled is whether the adoption of AI harmonised standards, based on the future AI Act, should take into account fundamental rights. In our view, the response is yes. The high risks posed by certain AI systems relate in particular to infringements of fundamental rights. Therefore, mitigating such risks involves fundamental rights considerations and this is what future harmonised standards should reflect. At the same time, valid criticisms of the European standardisation process have to be addressed. Finally, the practical incorporation of fundamental rights considerations in the ongoing European standardisation of AI systems is discussed.
- Abstract(参考訳): 欧州の文脈では、EU AI Actの提案と、安全で信頼できるAIに関する標準化要求の草案の両方が、標準化を基本的権利にリンクしている。
しかしながら、これらのテキストは、AI標準と基本的権利、その意味または含意との関係を規定し、詳細化するガイドラインを提供していない。
この章は、この重要な規制の盲点を明確にすることを目的としている。
取り組んだ主な問題は、将来のAI法に基づく調和された標準の採用が、基本的権利を考慮に入れるべきかどうかである。
私たちの見解では、応答はイエスです。
特定のAIシステムによって引き起こされる高いリスクは、特に基本的権利侵害に関連している。
したがって、そのようなリスクを軽減するには、基本的権利の考慮が必要であり、これが将来の調和された標準が反映すべきものである。
同時に、欧州の標準化プロセスに対する妥当な批判にも対処する必要がある。
最後に、現在進行中の欧州におけるAIシステムの標準化における基本的権利考慮の実践的組み入れについて論じる。
関連論文リスト
- Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
FATE(Fairness, Accountability, Transparency, Ethics in AI)コミュニティで議論されているように、AIの公平性というトピックは、ここ数年で有意義な議論を引き起こしている。
法的な観点から、特に欧州連合の法律では、多くのオープンな疑問が残る。
AI法は、非差別的な責任をAIモデルの設計段階に移すことで、これらの2つの概念をブリッジする大きな一歩を示すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - The European AI Liability Directives -- Critique of a Half-Hearted
Approach and Lessons for the Future [0.0]
欧州委員会は2022年9月に、欧州のAI責任に対するアプローチを概説する2つの提案を推進した。
後者は、影響を受けた人の個人的権利を一切含んでおらず、前者は、AI開発と展開に関する特定の実質的なルールを欠いている。
これらの行為は、AI規制におけるブリュッセル効果を誘発する可能性がある。
我々は、AI法における持続可能性影響評価と、債務制度における持続可能な設計欠陥を通じて、持続可能なAI規制を飛躍的に開始することを提案する。
論文 参考訳(メタデータ) (2022-11-25T09:08:11Z) - Normative Challenges of Risk Regulation of Artificial Intelligence and
Automated Decision-Making [0.0]
人工知能(AI)と自動意思決定(ADM)の規制をめざす最近の提案
最も顕著な例は、欧州委員会によって提案された人工知能法(AIA)である。
本稿では、主に関連する特定のリスクの種類から生じる適切なリスク規制の課題に対処する。
論文 参考訳(メタデータ) (2022-11-11T13:57:38Z) - Negative Human Rights as a Basis for Long-term AI Safety and Regulation [1.5229257192293197]
有害な行動を認識して回避するために自律的なAIシステムを導く一般的な原則は、規制の拘束システムによって支持される必要がある。
技術的実装に十分な仕様でなければならない。
この記事は、このような原則の役割を負の人権がどのように満たすかを説明するために、法律からインスピレーションを得ている。
論文 参考訳(メタデータ) (2022-08-31T11:57:13Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。