論文の概要: Self-Service or Not? How to Guide Practitioners in Classifying AI Systems Under the EU AI Act
- arxiv url: http://arxiv.org/abs/2603.00065v1
- Date: Tue, 10 Feb 2026 16:06:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.019112
- Title: Self-Service or Not? How to Guide Practitioners in Classifying AI Systems Under the EU AI Act
- Title(参考訳): セルフサービスか、そうでないか?EUのAI法の下でAIシステムを分類する実践者を指導する方法
- Authors: Ronald Schnitzer, Maximilian Hoeving, Sonja Zillner,
- Abstract要約: EU人工知能法(AIA)は2024年8月に施行された。
AIAの中心はリスクベースのアプローチであり、AIシステムによって引き起こされる潜在的な害と規制義務を整合させる。
リスク分類スキーム(RCS)の応用は複雑で、法律、技術、ドメイン固有の分野の専門知識を必要とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In August 2024, the EU Artificial Intelligence Act (AIA) came into force, marking the world's first large-scale regulatory framework for AI. Central to the AIA is a risk-based approach, aligning regulatory obligations with the potential harm posed by AI systems. To operationalize this, the AIA defines a Risk Classification Scheme (RCS), categorizing systems into four levels of risk. While this aligns with the theoretical foundations of risk-based regulations, the practical application of the RCS is complex and requires expertise across legal, technical, and domain-specific areas. Despite increasing academic discussion, little empirical research has explored how practitioners apply the RCS in real-world contexts. This study addresses this gap by evaluating how industrial practitioners apply the RCS using a self-service, web-based decision-support tool. Following a Design Science Research (DSR) approach, two evaluation phases involving 78 practitioners across diverse domains were conducted. Our findings highlight critical challenges in interpreting legal definitions and regulatory scope, and show that targeted support, such as clear explanations and practical examples, can significantly enhance the risk classification process. The study provides actionable insights for tool designers and policymakers aiming to support AIA compliance in practice.
- Abstract(参考訳): 2024年8月、EU人工知能法(AIA)が施行され、世界初の大規模なAI規制フレームワークとなった。
AIAの中心はリスクベースのアプローチであり、AIシステムによって引き起こされる潜在的な害と規制義務を整合させる。
これを運用するために、AIAはリスク分類スキーム(RCS)を定義し、システムを4段階のリスクに分類する。
これはリスクベースの規制の理論的な基礎と一致しているが、RCSの実践的な適用は複雑であり、法律、技術、ドメイン固有の分野の専門知識を必要とする。
学術的な議論が増えているにもかかわらず、実践者が現実世界の文脈でRCSをどのように適用するかを実証的な研究はほとんど行われていない。
本研究では,産業実践者が自己サービス型Webベースの意思決定支援ツールを用いてRCSをどのように適用するかを評価することで,このギャップを解消する。
デザインサイエンスリサーチ (DSR) のアプローチに続いて, 多様な領域にわたる78人の実践者を対象とした2つの評価段階が実施された。
本研究は, 法的定義や規制範囲の解釈における重要な課題を浮き彫りにし, 明確な説明や実践例などの目標支援がリスク分類プロセスを大幅に強化できることを示す。
この研究は、ツールデザイナや政策立案者に対して、実際にAIAコンプライアンスをサポートするための実用的な洞察を提供する。
関連論文リスト
- Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Embodied AI: Emerging Risks and Opportunities for Policy Action [46.48780452120922]
EAI(Embodied AI)システムは、物理的な世界で存在し、そこから学び、推論し、行動することができる。
EAIシステムには、悪意のある使用による身体的被害、大量監視、経済的・社会的破壊など、重大なリスクが伴う。
論文 参考訳(メタデータ) (2025-08-28T17:59:07Z) - Determining Absence of Unreasonable Risk: Approval Guidelines for an Automated Driving System Deployment [1.2499098866326646]
本稿では,不合理なリスクの判定方法の概要について述べる。
準備の整合性の決定は、その中核にある、リスク評価プロセスです。
本稿は, ADS リリースの可読性レビュープロセスの基礎となる方法論的基準を提案する。
論文 参考訳(メタデータ) (2025-05-15T00:52:09Z) - Understanding and Mitigating Risks of Generative AI in Financial Services [22.673239064487667]
我々は、金融サービスドメインに特有のAIコンテンツ安全性の考察を強調し、関連するAIコンテンツリスク分類を概説することを目指している。
我々は,既存のオープンソース技術ガードレールソリューションがこの分類をレッドチーム活動を通じて収集されたデータに基づいて評価することによってどのようにカバーするかを評価する。
論文 参考訳(メタデータ) (2025-04-25T16:55:51Z) - Robustness and Cybersecurity in the EU Artificial Intelligence Act [1.433758865948252]
EU人工知能法(英語: EU Artificial Intelligence Act、AIA)は、異なるタイプのAIシステムに対して異なる法的原則を定めている。
我々は、ロバストネスとサイバーセキュリティに関連する条項における法的課題と欠点を特定します。
我々は、堅牢性とサイバーセキュリティがパフォーマンス破壊に対するレジリエンスを要求していることを示します。
論文 参考訳(メタデータ) (2025-02-22T11:12:20Z) - COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act [40.233017376716305]
EUの人工知能法(AI Act)は、AI開発の責任を負うための重要なステップである。
明確な技術的解釈がなく、モデルのコンプライアンスを評価するのが難しい。
この研究は、この法律の最初の技術的解釈からなる包括的枠組みであるComple-AIを提示する。
論文 参考訳(メタデータ) (2024-10-10T14:23:51Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Conformity Assessments and Post-market Monitoring: A Guide to the Role
of Auditing in the Proposed European AI Regulation [0.0]
欧州人工知能法(European Artificial Intelligence Act)において提案されている2つの主要な執行機構について解説し議論する。
我々はAI監査を行うためのヨーロッパ規模のエコシステムを確立するための提案としてAIAが解釈できると論じる。
論文 参考訳(メタデータ) (2021-11-09T11:59:47Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。