論文の概要: Is your AI Model Accurate Enough? The Difficult Choices Behind Rigorous AI Development and the EU AI Act
- arxiv url: http://arxiv.org/abs/2604.03254v1
- Date: Wed, 11 Mar 2026 15:51:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-19 19:09:11.352004
- Title: Is your AI Model Accurate Enough? The Difficult Choices Behind Rigorous AI Development and the EU AI Act
- Title(参考訳): あなたのAIモデルは十分正確か? 厳格なAI開発とEUのAI法の背後にある難しい選択
- Authors: Lucas G. Uberti-Bona Marin, Bram Rijsbosch, Kristof Meding, Gerasimos Spanakis, Gijs van Dijck, Konrad Kollnig,
- Abstract要約: 2024年欧州連合のAI法は、リスクの高いシステムに対して「適切なレベルの精度」を規定している。
本稿では, 精度の定義, 測定, 評価の方法を決定する選択について, 法的・技術的に分析した。
本論文は,AIガバナンスと規制に関する学際的な議論に,テクノ・ノーマティブな精度の次元を明確化することによって貢献する。
- 参考スコア(独自算出の注目度): 11.9330079062021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Technical and legal debates frequently suggest that "accuracy" is an objective, measurable, and purely technical property. We challenge this view, showing that evaluating AI performance fundamentally depends on context-dependent normative decisions. These techno-normative choices are crucial for rigorous AI deployment, as they determine which errors are prioritised, how risks are distributed, and how trade-offs between competing objectives are resolved. This paper provides a legal-technical analysis of the choices that shape how accuracy is defined, measured, and assessed, using the 2024 European Union AI Act -- which mandates an "appropriate level of accuracy" for high-risk systems -- as a primary case study. We identify and analyse four choices central to any robust performance evaluation: (1) selecting metrics, (2) balancing multiple metrics, (3) measuring metrics against representative data, and (4) determining acceptance thresholds. For each choice, we study its relationship to the AI Act's accuracy requirement and associated documentation obligations, show how its technical implementation embeds implicit or explicit assumptions about acceptable risks, errors, and trade-offs, and discuss the implications for the practical implementation of the AI Act by examples and related technical standards. By making the techno-normative dimensions of accuracy explicit, this paper contributes to broader interdisciplinary debates on AI governance and regulation, and offers specific guidance for regulators, auditors, and developers tasked with translating (legal) safety requirements into technical practice.
- Abstract(参考訳): 技術的および法的な議論は、しばしば「正確さ」が目的であり、測定可能であり、純粋に技術的財産であることを示唆している。
我々はこの見解に挑戦し、AIのパフォーマンスを評価することは、基本的に文脈依存の規範的決定に依存することを示した。
これらの技術的ノーマティブな選択は、どのエラーが優先されているか、どのようにリスクが分散されているか、競合する目標間のトレードオフがどのように解決されるかを決定するため、厳格なAIデプロイメントに不可欠である。
本稿は、リスクの高いシステムに対して「適切なレベルの精度」を義務付ける欧州連合のAI法(2024年)を主要なケーススタディとして、正確性の定義、測定、評価の方法を形成する選択に関する法的技術的分析を提供する。
1)メトリクスの選択,(2)複数のメトリクスのバランス,(3)代表データに対するメトリクスの測定,(4)受け入れしきい値の決定。
それぞれの選択について、AI Actの正確性要件と関連するドキュメント義務との関係について検討し、その技術的実装が許容されるリスク、エラー、トレードオフに関する暗黙的または明示的な仮定をどのように組み込んでいるかを示し、事例および関連する技術標準によるAI Actの実践的実装への影響について議論する。
本稿では,AIガバナンスと規制に関する学際的な議論に深く貢献し,規制当局,監査官,開発者に対して,(法的な)安全要件を技術的実践に翻訳する具体的なガイダンスを提供する。
関連論文リスト
- Security, privacy, and agentic AI in a regulatory view: From definitions and distinctions to provisions and reflections [53.468443050795344]
人工知能(AI)技術の急速な普及は、動的規制の展望につながった。
AIパラダイムが、特にエージェントAIの形で、より大きな自律性へと移行するにつれ、規制規定を明確にすることはますます困難になっている。
本稿は、2024年から2025年の間に発行された24の関連文書を分析して、EU(EU)のAI規制条項をレビューする。
論文 参考訳(メタデータ) (2026-03-19T13:50:52Z) - Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives [0.9668407688201359]
人工知能(AI)システムは、法的文脈においてますます多くデプロイされている。
いわゆる「ブラックボックス問題」は、自動意思決定の正当性を損なう。
XAIは透明性を高めるための様々な方法を提案している。
論文 参考訳(メタデータ) (2025-10-13T07:19:15Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Judicial Requirements for Generative AI in Legal Reasoning [0.0]
大規模言語モデル(LLM)はプロのドメインに統合されているが、法律のような高度な分野における制限は理解されていない。
本稿では、AIシステムが司法判断における信頼性の高い推論ツールとして機能しなければならない中核機能について述べる。
論文 参考訳(メタデータ) (2025-08-26T09:56:26Z) - Rigor in AI: Doing Rigorous AI Work Requires a Broader, Responsible AI-Informed Conception of Rigor [83.99510317617694]
我々は、厳格なAI研究と実践が持つべきものに対するより広範な概念が必要とされると論じている。
我々は,AIコミュニティの作業に関する対話に有用な言語とフレームワークを提供することを目標としている。
論文 参考訳(メタデータ) (2025-06-17T15:44:41Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - The Dilemma of Uncertainty Estimation for General Purpose AI in the EU AI Act [6.9060054915724]
AI法は、欧州連合全体のAIシステムの規制である。
我々は、不確実性推定が、実世界でモデルをデプロイするために必要なコンポーネントであるべきだと論じる。
論文 参考訳(メタデータ) (2024-08-20T23:59:51Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Rethinking Legal Compliance Automation: Opportunities with Large Language Models [2.9088208525097365]
我々は、(テキスト)法的アーティファクトの試験は、まず文よりも広い文脈で行うべきであると論じる。
これらの制約に対処するために,コンプライアンス分析手法を提案する。
論文 参考訳(メタデータ) (2024-04-22T17:10:27Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。