論文の概要: The EU AI Act, Stakeholder Needs, and Explainable AI: Aligning Regulatory Compliance in a Clinical Decision Support System
- arxiv url: http://arxiv.org/abs/2505.20311v1
- Date: Thu, 22 May 2025 07:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 02:02:41.988561
- Title: The EU AI Act, Stakeholder Needs, and Explainable AI: Aligning Regulatory Compliance in a Clinical Decision Support System
- Title(参考訳): EU AI Act, Stakeholds, and Explainable AI: Aligning Regulatory Compliance in a Clinical Decision Support System
- Authors: Anton Hummel, Håkan Burden, Susanne Stenberg, Jan-Philipp Steghöfer, Niklas Kühl,
- Abstract要約: XAIは、AIシステムの透明性と人間の監視を強化することを目指している。
AI法は、AIシステムのプロバイダとデプロイ者の義務に焦点を当てている。
我々は,XAI技術が利害関係者のニーズとAI法の要件とのギャップを埋めることができることを示した。
- 参考スコア(独自算出の注目度): 5.6739502570965765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) is a promising solution to ensure compliance with the EU AI Act, the first multi-national regulation for AI. XAI aims to enhance transparency and human oversight of AI systems, particularly ``black-box models'', which are criticized as incomprehensible. However, the discourse around the main stakeholders in the AI Act and XAI appears disconnected. While XAI prioritizes the end user's needs as the primary goal, the AI Act focuses on the obligations of the provider and deployer of the AI system. We aim to bridge this divide and provide guidance on how these two worlds are related. By fostering an interdisciplinary discussion in a cross-functional team with XAI, AI Act, legal, and requirements engineering experts, we walk through the steps necessary to analyze an AI-based clinical decision support system to clarify the end-user needs and assess AI Act applicability. By analyzing our justified understanding using an AI system under development as a case, we show that XAI techniques can fill a gap between stakeholder needs and the requirements of the AI Act. We look at the similarities and contrasts between the legal requirements and the needs of stakeholders. In doing so, we encourage researchers and practitioners from the XAI community to reflect on their role towards the AI Act by achieving a mutual understanding of the implications of XAI and the AI Act within different disciplines.
- Abstract(参考訳): 説明可能なAI(XAI)は、最初の多国籍のAI規制であるEU AI Actへの準拠を保証する、有望なソリューションである。
XAIは、AIシステムの透明性と人間の監視を強化することを目的としており、特に「ブラックボックスモデル」は理解できないと批判されている。
しかし、AI法とXAIの主な利害関係者に関する議論は、切り離されているようだ。
XAIはエンドユーザのニーズを第一の目標として優先順位付けする一方で、AI Actは、AIシステムのプロバイダとデプロイ者の義務に重点を置いている。
私たちはこの分割を橋渡しし、この2つの世界がどのように関連しているかについてのガイダンスを提供することを目指しています。
XAI、AI Act、法律および要件エンジニアリングの専門家によるクロスファンクショナルなチームにおける学際的な議論を促進することで、AIベースの臨床決定支援システムを分析して、エンドユーザのニーズを明確にし、AI Actの適用性を評価するために必要なステップを掘り下げる。
開発中のAIシステムを用いて正当化された理解を解析することにより、XAI技術がステークホルダーのニーズとAI法の要件とのギャップを埋めることができることを示す。
我々は、法的要件と利害関係者のニーズの類似点と対比を考察する。
そこで我々は,XAIコミュニティの研究者や実践者たちに対して,異なる分野におけるXAIとAI法の意味を相互に理解することで,AI法に対する彼らの役割を反映することを奨励する。
関連論文リスト
- The AI Pentad, the CHARME$^{2}$D Model, and an Assessment of Current-State AI Regulation [5.231576332164012]
本稿では,コアAIコンポーネントの観点から,AI規制の統一モデルを確立することを目的とする。
まず、AIの5つの重要なコンポーネントで構成されるAI Pentadを紹介します。
次に、AI登録と開示、AI監視、AI執行機構を含むAI規制イネージャをレビューする。
論文 参考訳(メタデータ) (2025-03-08T22:58:41Z) - Unlocking the Black Box: Analysing the EU Artificial Intelligence Act's Framework for Explainability in AI [0.0]
eXplainable AI(XAI)の必要性は、医療、信用スコアリング、警察、刑事司法制度などの分野において明らかである。
EUレベルでは、説明可能性の概念は、AI法を支える基本的な原則の1つである。
本稿では,AIガバナンスと政策における説明可能性の原則を実装する上での課題とともに,XAIの推進を約束する様々なアプローチとテクニックについて考察する。
論文 参考訳(メタデータ) (2025-01-24T16:30:19Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Improving Health Professionals' Onboarding with AI and XAI for Trustworthy Human-AI Collaborative Decision Making [3.2381492754749632]
医療・健康を専攻する健康専門家や学生との半構造化面接の結果を報告する。
そこで我々は,脳卒中リハビリテーション評価のためのAIシステムの教材を作成するために,人間とAIのインタラクションガイドラインを構築した。
この結果から,従来のパフォーマンス指標をAIに提示する以外に,参加者はベンチマーク情報を希望していることが判明した。
論文 参考訳(メタデータ) (2024-05-26T04:30:17Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。