論文の概要: Getting Ready for the EU AI Act in Healthcare. A call for Sustainable AI Development and Deployment
- arxiv url: http://arxiv.org/abs/2505.07875v1
- Date: Sat, 10 May 2025 07:46:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.245563
- Title: Getting Ready for the EU AI Act in Healthcare. A call for Sustainable AI Development and Deployment
- Title(参考訳): 医療におけるEU AI法の準備 - 持続可能なAI開発と展開への呼びかけ
- Authors: John Brandt Brodersen, Ilaria Amelia Caggiano, Pedro Kringen, Vince Istvan Madai, Walter Osika, Giovanni Sartor, Ellen Svensson, Magnus Westerlund, Roberto V. Zicari,
- Abstract要約: 我々は、医療分野のためのAIシステムの開発者とデプロイ者は、積極的に行動し、AI法の要件を順守することを段階的に保証する措置を講じるべきである、と論じている。
AI法への関与は形式的な演習とはみなせない。AI法へのコンプライアンスは、信頼できるAIの倫理的原則への積極的コミットメントを通じて実施する必要がある。
- 参考スコア(独自算出の注目度): 0.5778074596311514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assessments of trustworthiness have become a cornerstone of responsible AI development. Especially in high-stakes fields like healthcare, aligning technical, evidence-based, and ethical practices with forthcoming legal requirements is increasingly urgent. We argue that developers and deployers of AI systems for the medical domain should be proactive and take steps to progressively ensure that such systems, both those currently in use and those being developed or planned, respect the requirements of the AI Act, which has come into force in August 2024. This is necessary if full and effective compliance is to be ensured when the most relevant provisions of the Act become effective (August 2026). The engagement with the AI Act cannot be viewed as a formalistic exercise. Compliance with the AI Act needs to be carried out through the proactive commitment to the ethical principles of trustworthy AI. These principles provide the background for the Act, which mentions them several times and connects them to the protection of public interest. They can be used to interpret and apply the Act's provisions and to identify good practices, increasing the validity and sustainability of AI systems over time.
- Abstract(参考訳): 信頼度の評価は、AI開発に責任を負う基盤となっている。
特に、医療、技術、エビデンスベース、倫理的プラクティスと今後の法的要件を整合させるような高度な分野では、ますます緊急である。
医療分野のためのAIシステムの開発者とデプロイ者は、積極的に行動し、現在使用されているシステムと計画中のシステムの両方が、2024年8月に施行されたAI法の要件を尊重するように、段階的に措置を講じるべきである、と私たちは主張する。
これは、法律の最も関連性の高い規定が有効になった場合(2026年8月)に、完全かつ効果的なコンプライアンスを確保する必要がある。
AI法との関わりは形式的なエクササイズとは見なされない。
AI法へのコンプライアンスは、信頼できるAIの倫理的原則への積極的コミットメントを通じて実施する必要がある。
これらの原則は、法律の背景を提供し、それらに何回か言及し、それらを公共の利益を守るために結びつける。
法律の規定を解釈し適用し、優れたプラクティスを特定するために使用することができ、時間とともにAIシステムの妥当性と持続可能性を高めることができる。
関連論文リスト
- Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Statutory Professions in AI governance and their consequences for
explainable AI [2.363388546004777]
AIの使用によって引き起こされる意図的・偶発的な害は個人の健康、安全、権利に影響を及ぼした。
我々は、AI規制フレームワークの必須部分として、法定専門職の枠組みを導入することを提案する。
論文 参考訳(メタデータ) (2023-06-15T08:51:28Z) - RE-centric Recommendations for the Development of Trustworthy(er)
Autonomous Systems [4.268504966623082]
EU AI Act(AIA)ガイドラインを遵守し、AIシステムの開発と実装は、間もなくEU内で必須となる。
実践者は、AIシステム開発中に倫理を運用するための実行可能な指示を欠いている。
異なる倫理的ガイドラインの文献レビューでは、対処された原則とそれらを記述するために使用される用語の矛盾が明らかになった。
論文 参考訳(メタデータ) (2023-05-29T11:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。