論文の概要: The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template
- arxiv url: http://arxiv.org/abs/2411.15149v1
- Date: Thu, 07 Nov 2024 11:55:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-01 05:39:32.250402
- Title: The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template
- Title(参考訳): AI法の基本的権利影響評価(FRIA:Roots, Law obligations, and key element for a model template)
- Authors: Alessandro Mantelero,
- Abstract要約: 基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
- 参考スコア(独自算出の注目度): 55.2480439325792
- License:
- Abstract: What is the context which gave rise to the obligation to carry out a Fundamental Rights Impact Assessment (FRIA) in the AI Act? How has assessment of the impact on fundamental rights been framed by the EU legislator in the AI Act? What methodological criteria should be followed in developing the FRIA? These are the three main research questions that this article aims to address, through both legal analysis of the relevant provisions of the AI Act and discussion of various possible models for assessment of the impact of AI on fundamental rights. The overall objective of this article is to fill existing gaps in the theoretical and methodological elaboration of the FRIA, as outlined in the AI Act. In order to facilitate the future work of EU and national bodies and AI operators in placing this key tool for human-centric and trustworthy AI at the heart of the EU approach to AI design and development, this article outlines the main building blocks of a model template for the FRIA. While this proposal is consistent with the rationale and scope of the AI Act, it is also applicable beyond the cases listed in Article 27 and can serve as a blueprint for other national and international regulatory initiatives to ensure that AI is fully consistent with human rights.
- Abstract(参考訳): AI法において基本的人権影響評価(FRIA)を実施する義務を生んだ背景は何か。
基本的権利に対する影響の評価は、AI法におけるEUの立法者によってどのように行われたのか?
FRIAの開発において、どのような方法論的基準に従うべきか?
これら3つの主要な研究課題は、AI法に関する規定に関する法的分析と、基本的権利に対するAIの影響を評価するための様々なモデルに関する議論の両方を通じて、この記事が目指すものである。
本稿の全体的な目的は、AI法で概説されているように、FRIAの理論的および方法論的実験における既存のギャップを埋めることである。
この記事では、EUのAI設計と開発におけるEUアプローチの中心に、人間中心で信頼性の高いAIのためのこの重要なツールを配置する上で、EUと国家機関とAIオペレータの今後の作業を促進するために、FRIAのモデルテンプレートの主な構成要素を概説する。
この提案は、AI法の合理性と範囲と一致しているが、第27条に記載されている事例を越えても適用可能であり、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能することができる。
関連論文リスト
- Developing an Ontology for AI Act Fundamental Rights Impact Assessments [0.0]
最近発表されたEU人工知能法(AI Act)は、AI技術の使用を規制している。
その新しい要件の1つは、基本的人権影響評価(FRIA)を実施する義務である。
セマンティックWeb標準に基づくオントロジーとしてFRIAの新たな表現を提案する。
論文 参考訳(メタデータ) (2024-12-20T00:37:33Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Considering Fundamental Rights in the European Standardisation of Artificial Intelligence: Nonsense or Strategic Alliance? [0.0]
この章は、AI標準と基本的権利の関係を明確にすることを目的としている。
取り組んだ主な問題は、将来のAI法に基づく調和された標準の採用が、基本的権利を考慮に入れるべきかどうかである。
論文 参考訳(メタデータ) (2024-01-23T10:17:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Actionable Principles for Artificial Intelligence Policy: Three Pathways [0.0]
本稿では,AIのための行動原理開発のための新しい枠組みを提案する。
このアプローチは、政策プロセスにおける実践性を高めるための方法論的要素におけるAI倫理原則と家庭の関係を認識している。
論文 参考訳(メタデータ) (2021-02-24T16:57:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。