論文の概要: Foundations for Risk Assessment of AI in Protecting Fundamental Rights
- arxiv url: http://arxiv.org/abs/2507.18290v1
- Date: Thu, 24 Jul 2025 10:52:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.426004
- Title: Foundations for Risk Assessment of AI in Protecting Fundamental Rights
- Title(参考訳): 基本的権利保護におけるAIのリスクアセスメントの基礎
- Authors: Antonino Rotolo, Beatrice Ferrigno, Jose Miguel Angel Garcia Godinez, Claudio Novelli, Giovanni Sartor,
- Abstract要約: この章では、AIの質的リスクアセスメントの概念的フレームワークを紹介します。
法的コンプライアンスと基本的権利保護の複雑さに対処し、定義的バランスとデファシブルな推論を反復する。
- 参考スコア(独自算出の注目度): 0.5093073566064981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This chapter introduces a conceptual framework for qualitative risk assessment of AI, particularly in the context of the EU AI Act. The framework addresses the complexities of legal compliance and fundamental rights protection by itegrating definitional balancing and defeasible reasoning. Definitional balancing employs proportionality analysis to resolve conflicts between competing rights, while defeasible reasoning accommodates the dynamic nature of legal decision-making. Our approach stresses the need for an analysis of AI deployment scenarios and for identifying potential legal violations and multi-layered impacts on fundamental rights. On the basis of this analysis, we provide philosophical foundations for a logical account of AI risk analysis. In particular, we consider the basic building blocks for conceptually grasping the interaction between AI deployment scenarios and fundamental rights, incorporating in defeasible reasoning definitional balancing and arguments about the contextual promotion or demotion of rights. This layered approach allows for more operative models of assessment of both high-risk AI systems and General Purpose AI (GPAI) systems, emphasizing the broader applicability of the latter. Future work aims to develop a formal model and effective algorithms to enhance AI risk assessment, bridging theoretical insights with practical applications to support responsible AI governance.
- Abstract(参考訳): この章では、特にEU AI Actの文脈において、AIの質的なリスク評価のための概念的なフレームワークを紹介します。
この枠組みは、法的コンプライアンスと基本的権利保護の複雑さに対処し、定義的バランスと実現不可能な推論を反復する。
定義的バランスは、競合する権利間の紛争を解決するために比例分析を採用する。
当社のアプローチでは、AIデプロイメントシナリオの分析と、潜在的な法的違反と基本的権利に対する多層的影響の特定の必要性を強調しています。
この分析に基づいて、AIリスク分析の論理的説明のための哲学的基礎を提供する。
特に,AIの展開シナリオと基本的権利の相互作用を概念的に把握するための基本的なビルディングブロックを検討する。
この階層化されたアプローチは、リスクの高いAIシステムとGPAI(General Purpose AI)システムの両方を評価するためのより実用的なモデルを可能にし、後者の幅広い適用性を強調している。
将来の研究は、AIリスクアセスメントを強化するための正式なモデルと効果的なアルゴリズムの開発、そして責任あるAIガバナンスをサポートするための実践的なアプリケーションに理論的洞察をブリッジすることを目的としている。
関連論文リスト
- Alignment and Safety in Large Language Models: Safety Mechanisms, Training Paradigms, and Emerging Challenges [47.14342587731284]
本調査では,大規模言語モデル(LLM)アライメントにおけるアライメント手法,トレーニングプロトコル,経験的発見について概観する。
我々は多種多様なパラダイムをまたいだアライメント手法の開発を分析し、コアアライメント目標間の基本的なトレードオフを特徴づける。
我々は、直接選好最適化(DPO)、構成AI、脳インスパイアされた方法、アライメント不確実性定量化(AUQ)など、最先端技術について議論する。
論文 参考訳(メタデータ) (2025-07-25T20:52:58Z) - The Value of Disagreement in AI Design, Evaluation, and Alignment [0.0]
相違はAIシステムの設計、評価、アライメントパイプライン全体に広がっている。
AI開発における標準的なプラクティスは、しばしば曖昧または不一致を排除し、エンジニアリングされた均質化をもたらす。
我々は,AIライフサイクルにおける不一致に関する実践的推論を導くための規範的枠組みを開発する。
論文 参考訳(メタデータ) (2025-05-12T17:22:30Z) - Towards Developing Ethical Reasoners: Integrating Probabilistic Reasoning and Decision-Making for Complex AI Systems [4.854297874710511]
計算倫理フレームワークは、複雑な実環境で動作するAIと自律システムにとって不可欠である。
既存のアプローチは、倫理原則を動的で曖昧な文脈に組み込むために必要な適応性に欠けることが多い。
本稿では,中間表現,確率論的推論,知識表現を組み合わせた総合的メタレベルフレームワークの構築に必要な要素について概説する。
論文 参考訳(メタデータ) (2025-02-28T17:25:11Z) - Position: We Need An Adaptive Interpretation of Helpful, Honest, and Harmless Principles [24.448749292993234]
Helpful, Honest, and Harmless(HHH)原則は、AIシステムを人間の価値と整合させるためのフレームワークである。
我々は,HHH原理の適応的解釈を論じ,多様なシナリオへの適応のための参照フレームワークを提案する。
この作業は、AIアライメントを改善するための実践的な洞察を提供し、HHH原則が現実のAIデプロイメントにおいて基礎的かつ運用的に有効であることを保証する。
論文 参考訳(メタデータ) (2025-02-09T22:41:24Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Probabilistic Analysis of Copyright Disputes and Generative AI Safety [0.0]
本稿では,著作権侵害問題を分析するための確率論的アプローチを提案する。
このアプローチの有用性は、逆比則への応用を通して示される」
論文 参考訳(メタデータ) (2024-10-01T08:05:19Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - 'Team-in-the-loop': Ostrom's IAD framework 'rules in use' to map and measure contextual impacts of AI [0.0]
この記事では、OstromのInstitutional Analysis and Development Framework(IAD)の'rules in use'が、AIのコンテキスト分析アプローチとしてどのように開発できるかを考察する。
論文 参考訳(メタデータ) (2023-03-24T14:01:00Z) - On the Need and Applicability of Causality for Fairness: A Unified Framework for AI Auditing and Legal Analysis [0.0]
アルゴリズム的差別に対処する上での因果推論の重要性について考察する。
ランドマークの事例と規制の枠組みをレビューすることで、原因的主張の証明に固有の課題を説明する。
論文 参考訳(メタデータ) (2022-07-08T10:37:22Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI [0.0]
本稿では,自律・知能システムを対象とした健康影響評価フレームワークの実用化について述べる。
このプロセスは、AIシステムの影響を理解するための、人間中心のアルゴリズム支援アプローチを可能にする。
論文 参考訳(メタデータ) (2020-07-29T13:26:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。