論文の概要: Accountability Framework for Healthcare AI Systems: Towards Joint Accountability in Decision Making
- arxiv url: http://arxiv.org/abs/2509.03286v1
- Date: Wed, 03 Sep 2025 13:05:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.521559
- Title: Accountability Framework for Healthcare AI Systems: Towards Joint Accountability in Decision Making
- Title(参考訳): 医療AIシステムのためのアカウンタビリティフレームワーク:意思決定における共同カウンタビリティを目指して
- Authors: Prachi Bagave, Marcus Westberg, Marijn Janssen, Aaron Yi Ding,
- Abstract要約: 本稿では、特に医療におけるAIシステムにおいて、AI説明責任の'What'と'how'のギャップを埋める。
我々は、説明責任の概念を分析し、説明責任の枠組みを定式化し、さまざまな説明責任のメカニズムを扱うための3層構造を提供することにより、これを行う。
- 参考スコア(独自算出の注目度): 1.9774267722954466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI is transforming the healthcare domain and is increasingly helping practitioners to make health-related decisions. Therefore, accountability becomes a crucial concern for critical AI-driven decisions. Although regulatory bodies, such as the EU commission, provide guidelines, they are highlevel and focus on the ''what'' that should be done and less on the ''how'', creating a knowledge gap for actors. Through an extensive analysis, we found that the term accountability is perceived and dealt with in many different ways, depending on the actor's expertise and domain of work. With increasing concerns about AI accountability issues and the ambiguity around this term, this paper bridges the gap between the ''what'' and ''how'' of AI accountability, specifically for AI systems in healthcare. We do this by analysing the concept of accountability, formulating an accountability framework, and providing a three-tier structure for handling various accountability mechanisms. Our accountability framework positions the regulations of healthcare AI systems and the mechanisms adopted by the actors under a consistent accountability regime. Moreover, the three-tier structure guides the actors of the healthcare AI system to categorise the mechanisms based on their conduct. Through our framework, we advocate that decision-making in healthcare AI holds shared dependencies, where accountability should be dealt with jointly and should foster collaborations. We highlight the role of explainability in instigating communication and information sharing between the actors to further facilitate the collaborative process.
- Abstract(参考訳): AIは医療分野を変革し、実践者が健康に関する決定を下すのをますます助けている。
したがって、説明責任は、重要なAI駆動決定にとって重要な関心事となる。
EU委員会などの規制機関はガイドラインを提供しているが、ハイレベルであり、実行すべき「何を」に重点を置いており、「どのように」よりも「どのように」に重点を置いており、俳優の知識ギャップを生じさせている。
広範に分析した結果,アクターの専門知識や作業領域によって,説明責任という用語が認識され,さまざまな方法で扱われていることが判明した。
AIアカウンタビリティの問題や、この用語の曖昧さに関する懸念が高まる中で、この論文は、特に医療におけるAIシステムにおいて、AIカウンタビリティの'What'と'how'のギャップを埋めるものだ。
我々は、説明責任の概念を分析し、説明責任の枠組みを定式化し、さまざまな説明責任のメカニズムを扱うための3層構造を提供することにより、これを行う。
我々の説明責任フレームワークは、医療AIシステムの規制とアクターが採用するメカニズムを、一貫した説明責任体制の下で位置づけている。
さらに、この3層構造は、医療AIシステムのアクターに、その行動に基づいてメカニズムを分類するように誘導する。
当社のフレームワークを通じて、医療AIにおける意思決定は共有依存関係を持ち、説明責任は共同で扱うべきであり、コラボレーションを育むべきだ、と我々は主張する。
我々は,アクター間のコミュニケーションや情報共有を推し進める上での説明可能性の役割を強調し,協調的なプロセスをさらに促進する。
関連論文リスト
- Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Unravelling Responsibility for AI [0.8472029664133528]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,グラフィカルな表記法と一般的な方法論を伴って,責任の概念的枠組みを提案する。
責任の概念を広げて、誰がAIに責任を持つのかが異なる可能性を明確にする。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。